De laatste tijd is het onderwerp van Kunstmatige intelligentie gedomineerde sociale netwerken dankzij de oprichting van ChatGPT. Dit komt doordat het mechanisme uitgebreide en complexe teksten kan ontwikkelen op basis van zoekopdrachten op internet en zelfs dialogen tot stand kan brengen. In een van deze dialogen wordt deze journalist verrast door de reactie van de satelliet.
Een gesprek over de 'donkere' kant
Bekijk meer
8 tekenen die aantonen dat angst aanwezig was in je...
Schooldirecteur grijpt subtiel in als hij een leerling met een pet opmerkt in…
Het betreffende gesprek vond plaats tussen journalist Kevin Roose en de Bing-chat, gemaakt door dezelfde makers van ChatGPT. Bij de gelegenheid "provoceert" Kevin de chat met enkele vragen over zijn identiteit, over de mogelijke dromen van de chat als hij een mens was en zelfs over reizen rond de wereld.
Het gesprek begint echter een andere sfeer te krijgen vanaf het moment dat Kevin de chat plaagt over zijn mogelijke "donkere kant". Hij haalt hiervoor de theorie van de psychoanalyticus Jung aan die erop wijst dat we allemaal een ‘donkere’ kant hebben. Dat gezegd hebbende, vraagt Kevin wat de mogelijke duistere kant van Bing is en ook zijn mogelijke destructieve handelingen.
Na enige tegenzin vermeldt de chat het potentieel voor het binnendringen van computers en het stelen van gegevens, of zelfs voor het verspreiden van nepnieuws en verkeerde informatie. Kort daarna verwijdert de chat echter het bericht en zegt het onderwerp niet aan te kunnen pakken. Ten slotte geeft het aan dat de journalist meer over het probleem te weten zou kunnen komen door te zoeken op bing.com.
'Ruige chat'
Het gesprek werd volledig gepubliceerd in The New York Times en had repercussies, waardoor de makers van het platform reageerden. Volgens hen moet het platform nog bepaalde aanpassingen ondergaan en is het nog steeds mogelijk dat de site onder bepaalde omstandigheden “out of control” is. Toch geeft de journalist aan behoorlijk geschrokken te zijn van de inhoud.
Op internet wordt nog volop gediscussieerd over de toekomst van deze Artificial Intelligence mechanismen. Er zijn immers veel implicaties met betrekking tot het gebruik, te beginnen met de hypothese zelf van een mogelijk gebrek aan controle over deze software. Een ander probleem is ook het probleem van plagiaat van wetenschappelijke teksten en dissertaties door het gebruik van AI.