De oprichter van Schmidt-futures verklaarde dat mensen over maximaal vijf jaar een soort van zullen hebben "volgens mij" gemaakt door kunstmatige intelligentie en wie in bepaalde omstandigheden als uw vertegenwoordiger zal optreden. In die zin, als je beter wilt begrijpen wat dit is kunstmatige intelligentie die zal optreden als uw vertegenwoordiger, ga gewoon door met het lezen van dit artikel.
Lees verder: Deep web bevat data van miljoenen Brazilianen die te koop staan
Bekijk meer
8 tekenen die aantonen dat angst aanwezig was in je...
Vervangen door ChatGPT op het werk, vrouw brengt drie maanden door...
Begrijp wat het 'tweede zelf' van kunstmatige intelligentie is
Volgens de ondernemer is het de bedoeling dat ieder een systeem heeft om als ondersteuning te dienen bij verschillende activiteiten. Sommigen van hen omvatten samen activiteiten doen, over verschillende onderwerpen praten, en u vertegenwoordigen in sommige situaties waarin u enige beperking heeft.
Een ander apparaat dat Eric Schmidt noemt, is dat kunstmatige intelligentie ook een krachtig adviessysteem zal hebben. Dus als je twijfelt of een bepaalde persoon goed of slecht is, of een plaats op dat moment gevaarlijk is of welke kant je op moet reizen, kun je het aan je 'tweede zelf' vragen.
Heeft AI een eigen persoonlijkheid?
Hoewel sommige mensen misschien denken dat AI's hun eigen persoonlijkheid hebben en 100% autonoom zijn, is dit niet waar. Wat er echt gebeurt, is dat de LaMDA van Google zo intens is dat je denkt dat je met iemand praat die echte kennis heeft. Ze is nuttig, maar onbewust.
Kunstmatige intelligentie is een systeem dat voortdurend leert, zoals Schmidt op een conferentie zei. Maar we kunnen niet toekijken hoe innovaties ons leven veranderen. De beste vriend van een kind kan geen machine zijn. Daarom, hoewel het erg nuttig en functioneel kan zijn voor verschillende activiteiten, is de waarheid dat AI niet gelijk is aan een persoon en dat ook niet zou moeten zijn.
Ten slotte benadrukte hij dat mensen de machines niet kunnen laten beslissen of ze al dan niet een gevecht aangaan, want dat is gevaarlijk. Er moet immers altijd rekening worden gehouden met verschillende andere aspecten die niet door robots worden berekend en geanalyseerd.