Récemment, il a lancé technologie de ChatGPT. Il est devenu addictif chez les étudiants après avoir découvert que cette intelligence artificielle est capable de résoudre des opérations mathématiques et de développer des essais en quelques secondes. Cependant, il peut également être un outil puissant pour les pirates et les personnes malveillantes pour créer des campagnes de phishing. Découvrez plus de détails ci-dessous.
ChatGPT est capable de profiter aux personnes de mauvaise moralité
voir plus
Remplacée par ChatGPT au travail, la femme passe trois mois…
Vers l'intelligence artificielle: Apple envisage d'intégrer un chatbot dans…
Vérifiez ci-dessous quelques actions malveillantes que le ChatGPT peut offrir:
- Il peut être utilisé pour créer un code malveillant
ChatGPT a quelques commandes simples capables de créer du code malveillant. Et ces pièges peuvent être développés non seulement par des pirates expérimentés, mais aussi par des gens ordinaires.
- Il peut être utilisé pour créer des messages de phishing sans erreur
Grâce à cette fonctionnalité, des personnes malveillantes peuvent créer de faux messages au nom d'entreprises et de services célèbres pour capturer des coordonnées bancaires. Cela est dû à des e-mails de phishing sans fautes de frappe.
- Cela peut aider à répandre de fausses informations
En raison du fait que ChatGPT est alimenté par un contenu qui va jusqu'en 2021, pour répondre aux questions de utilisateurs, le logiciel utilise des nouvelles et des articles obsolètes, de sorte que la diffusion de désinformation.
- Cela peut aider à répandre des préjugés
Le logiciel a été développé pour gérer une variété de contenus disponibles sur Internet, y compris les messages haineux. Par conséquent, il est capable de reproduire des préjugés tels que le racisme et le sexisme.
- Cela peut rendre plus difficile la détection du plagiat
Le contenu que le robot développe pour créer un essai, par exemple, peut passer inaperçu par plusieurs autres programmes qui sont formés pour identifier le plagiat. Jusqu'à présent, seul OpenAI Detector est en mesure d'aider dans ce domaine, mais il est encore en cours de développement.
- Il peut être convaincant même quand il a tort.
Du fait que le robot est capable de développer un style d'écriture et de langage très similaire à celui des humains, il finit par passer pour vrai dans des situations qui, parfois, sont fausses. Cela finit par tromper de nombreux internautes.