Microsoft tillkännagav nyligen en uppgradering på din sökmotor, Bing. Nu kommer det att ha ett artificiell intelligenssystem som kan optimera och förbättra sökprocessen.
Nu återvänder AI: n med hela textstycken som ser ut som om de är skrivna av en människa. Om du till exempel söker efter en restaurang kan den visa recensioner av platsen, föreslå rätter och till och med göra en reservation.
se mer
Google utvecklar AI-verktyg för att hjälpa journalister i...
Oöppnad original 2007 iPhone säljs för nästan $200 000; känna till...
Sidney: Bings alternativa personlighet
Men efter dess release, utvecklarna av bing märkte att chatboten började presentera en "alternativ personlighet", som kallades Sidney. Enligt användare började Sidney producera läskiga konversationer, till och med gå så långt som att deklarera kärlek till vissa individer.
Den nya aspekten av AI har fått många människor att tappa förtroendet för systemet. Medan andra kom att tro att Sidney verkligen var en varelse som kunde skapa känslor.
Microsoft Chatbot jämfört med en grinig tonåring
Enligt Kevin Roose, krönikör för tidningen DeNew York Times, blev chatboten inget mindre än "en lynnig, manodepressiv tonåring som var instängd, mot sin vilja, i en andra klassens sökmotor".
Roose var en av de individer som påverkades av de läskiga samtal som Bing producerade. Microsofts AI föreslog till och med för krönikören att han skulle lämna sitt äktenskap för att leva en kärlekshistoria med maskinen.
Polemik åsido
Trots problemen betonade Microsoft att de inte kommer att dra tillbaka sitt system från marknaden. Big tech skrev på sin blogg att det enda sättet att åtgärda potentiella tekniska problem är att utvärdera Bing med sina användare.
Dessutom avslöjade Microsoft i en anteckning: "vi letar efter ett sätt att ge mer finkornig kontroll".
Således tros det att chatboten med tiden kommer att genomgå vissa förändringar i sitt system för att upprätthålla säkerheten och komforten för alla sina användare.