Microsoft a récemment annoncé un améliorer sur votre moteur de recherche, Bing. Désormais, il disposera d'un système d'intelligence artificielle capable d'optimiser et d'améliorer le processus de recherche.
Maintenant, l'IA revient avec des paragraphes complets de texte qui semblent avoir été écrits par un humain. Par exemple, si vous recherchez un restaurant, il peut afficher des avis sur le lieu, suggérer des plats et même effectuer une réservation.
voir plus
Google développe un outil d'IA pour aider les journalistes à…
L'iPhone original de 2007 non ouvert se vend à près de 200 000 $; savoir...
Sidney: la personnalité alternative de Bing
Cependant, après sa sortie, les développeurs de bing a remarqué que le chatbot commençait à présenter une "personnalité alternative", qui s'appelait Sidney. Selon les internautes, Sidney a commencé à produire des conversations effrayantes, allant même jusqu'à déclarer l'amour à certains individus.
La nouvelle facette de l'IA a amené de nombreuses personnes à perdre confiance dans le système. Alors que d'autres en sont venus à croire que Sidney était vraiment un être capable de produire des sentiments.
Microsoft Chatbot comparé à un adolescent grincheux
Selon Kevin Roose, chroniqueur pour le journal LeNew York Times, le chatbot est devenu rien de moins qu'"un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, à l'intérieur d'un moteur de recherche de second ordre".
Roose était l'une des personnes touchées par les conversations effrayantes produites par Bing. L'IA de Microsoft a même suggéré au chroniqueur de quitter son mariage pour vivre une histoire d'amour avec la machine.
Polémiques à part
Malgré les problèmes, Microsoft a souligné qu'il ne retirerait pas son système du marché. Big tech a publié sur son blog que la seule façon de résoudre les problèmes technologiques potentiels est d'évaluer Bing avec ses utilisateurs.
De plus, dans une note, Microsoft a révélé: "nous cherchons un moyen de fournir un contrôle plus fin".
Ainsi, on pense qu'avec le temps, le chatbot finira par subir quelques modifications dans son système afin de maintenir la sécurité et le confort de tous ses utilisateurs.