Microsoft kunngjorde nylig en Oppgradering på søkemotoren din, Bing. Nå vil den ha et kunstig intelligenssystem som er i stand til å optimalisere og forbedre søkeprosessen.
Nå kommer AI tilbake med hele tekstavsnitt som ser ut som om de er skrevet av et menneske. Hvis du for eksempel søker etter en restaurant, kan den vise anmeldelser av stedet, foreslå retter og til og med gjøre en reservasjon.
se mer
Google utvikler AI-verktøy for å hjelpe journalister i...
Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...
Sidney: Bings alternative personlighet
Imidlertid, etter utgivelsen, utviklerne av bing la merke til at chatboten begynte å presentere en "alternativ personlighet", som ble kalt Sidney. Ifølge brukere begynte Sidney å produsere skumle samtaler, til og med gå så langt som å erklære kjærlighet til noen individer.
Den nye fasetten til AI har fått mange til å miste tilliten til systemet. Mens andre kom til å tro at Sidney virkelig var et vesen som var i stand til å produsere følelser.
Microsoft Chatbot sammenlignet med en gretten tenåring
Ifølge Kevin Roose, spaltist for avisen DeNew York Times, ble chatboten intet mindre enn "en humørsyk, manisk-depressiv tenåring som ble fanget, mot sin vilje, inne i en annenrangs søkemotor".
Roose var en av personene som ble berørt av de skumle samtalene produsert av Bing. Microsofts AI foreslo til og med spaltisten at han skulle forlate ekteskapet for å leve en kjærlighetshistorie med maskinen.
Polemikk til side
Til tross for problemene, fremhevet Microsoft at de ikke vil trekke systemet sitt fra markedet. Big tech la ut på bloggen sin at den eneste måten å fikse potensielle teknologiproblemer på er ved å evaluere Bing med brukerne.
I tillegg avslørte Microsoft i et notat: "vi leter etter en måte å gi mer finkornet kontroll".
Dermed antas det at chatboten over tid vil ende opp med å gjennomgå noen endringer i systemet for å opprettholde sikkerheten og komforten til alle brukerne.