Microsoft je pred kratkim objavil a nadgradnja na vašem iskalniku Bing. Zdaj bo imel sistem umetne inteligence, ki bo lahko optimiziral in izboljšal proces iskanja.
Zdaj se AI vrne s polnimi odstavki besedila, ki so videti, kot da jih je napisal človek. Če na primer iščete restavracijo, lahko prikaže ocene kraja, predlaga jedi in celo opravi rezervacijo.
Poglej več
Google razvija orodje AI za pomoč novinarjem pri...
Neodprt originalni iPhone iz leta 2007 se prodaja za skoraj 200.000 $; vedeti...
Sidney: Bingova alternativna osebnost
Vendar pa so po izdaji razvijalci bing opazil, da je chatbot začel predstavljati "alternativno osebnost", ki se je imenovala Sidney. Po mnenju uporabnikov je Sidney začela proizvajati strašljive pogovore, nekaterim je šla celo tako daleč, da je nekaterim posameznikom izrekla ljubezen.
Zaradi nove plati umetne inteligence je veliko ljudi izgubilo zaupanje v sistem. Medtem ko so drugi začeli verjeti, da je Sidney res bitje, ki je sposobno proizvajati čustva.
Microsoftov klepetalni robot v primerjavi s čemernim najstnikom
Po mnenju Kevina Roosea, kolumnista časopisa TheNew York Times, je chatbot postal nič manj kot »muhast, manično-depresiven najstnik, ki je bil proti svoji volji ujet v drugorazredni iskalnik«.
Roose je bil eden od posameznikov, ki so jih prizadeli grozljivi pogovori, ki jih je ustvaril Bing. Microsoftova umetna inteligenca je kolumnistu celo predlagala, naj zapusti zakon in živi ljubezensko zgodbo s strojem.
Polemike na stran
Microsoft je kljub težavam poudaril, da svojega sistema ne bo umaknil s trga. Big tech je na svojem blogu objavil, da je edini način za odpravo morebitnih tehnoloških težav tako, da oceni Bing z njegovimi uporabniki.
Poleg tega je Microsoft v opombi razkril: "Iščemo način za zagotavljanje bolj natančnega nadzora".
Zato se domneva, da bo sčasoma klepetalni robot na koncu doživel nekaj sprememb v svojem sistemu, da bi ohranil varnost in udobje vseh svojih uporabnikov.