Skupina viac ako tisíc technologických expertov bola s varovaním o rizikách pre ľudstvo proti pokroku v bezpečnostnom systéme. umela inteligencia. Šesťmesačná prestávka bola naznačená vo výkonných technologických systémoch považovaných za veľkú hrozbu pre budúcnosť ľudí.
Po vzniku ChatGPT, ktorý bol spustený v posledných mesiacoch roku 2022, veľké spoločnosti ukázali, že sú v pretekoch s časom, aby zabezpečili ďalšie umelé inteligencie, ktoré sú také silné, ako je vytvorenie OpenAI. V otvorenom liste podpísanom veľkými menami tvrdili, že preteky o technologický pokrok sú „mimo kontroly a bezpečnosti“.
pozrieť viac
Google vyvíja nástroj AI na pomoc novinárom v…
Neotvorený pôvodný iPhone z roku 2007 sa predáva za takmer 200 000 dolárov; vedieť...
Požiadali sme o pozastavenie výskumu umelej inteligencie
Bola vznesená požiadavka stanoviť medzi spoločnosťami prestávku najmenej šesť mesiacov vo vývoji systémov nadradených GPT-4. Stojí za zmienku, že GPT-4 bola nedávno vydaná verzia ChatGPT a je najvýkonnejším systémom na svete v prevádzke.
Ak sa pauza nedodrží, ako sa uvádza v pokračovaní textu, vlády musia zasiahnuť a pozastaviť službu, ktorá sa práve vykonáva. List bol vydaný inštitútom Future of Life a obsahuje podpis Elona Muska, miliardára a veľkého mena v technológii.
Elon Musk bol jedným zo zakladateľov OpenAI, čo je dnes spoločnosť pre ChatGPT. V roku 2018 odstúpil zo svojej časti spoločnosti, okrem toho po svojom odchode vyvolal veľa kritiky vedenia spoločnosti.
Inštitút, ktorý list zverejnil, uviedol, že jednou z najväčších škôd pre ľudstvo by bolo nahradenie ľudskej práce automatizačnými prácami. Nedávno na rovnakú tému zverejnila investičná banka Goldman Sachs správu, ktorá sa zaoberala náhradou ľudských pracovných miest.
V správe odhadli, že zanikne 300 miliónov ľudských pracovných miest. Iní odborníci sa aspoň nateraz nepokúšajú odhadnúť, čo by technológia na trhu práce dokázala.
Milovník filmov a seriálov a všetkého, čo kinematografiu patrí. Aktívny zvedavec na sieťach, vždy pripojený k informáciám o webe.