Der Gründer von Schmidt-Futures erklärte, dass Menschen in bis zu fünf Jahren eine Art haben werden "nach mir" erstellt von künstliche Intelligenz und wer unter bestimmten Umständen als Ihr Vertreter fungiert. In diesem Sinne, wenn Sie besser verstehen möchten, was das ist Künstliche Intelligenz, die als Ihr Vertreter fungiert, lesen Sie einfach diesen Artikel weiter.
Weiterlesen: Deep Web enthält Daten von Millionen Brasilianern zum Verkauf
Mehr sehen
8 Anzeichen, die zeigen, dass Angst in Ihrem… vorhanden war
Frau wird bei der Arbeit durch ChatGPT ersetzt und verbringt drei Monate…
Verstehen Sie, was das „zweite Selbst“ der künstlichen Intelligenz ist
Laut dem Geschäftsmann besteht die Idee darin, dass jeder über ein System verfügt, das ihn bei verschiedenen Aktivitäten unterstützt. Einige davon umfassen gemeinsame Aktivitäten, Gespräche über verschiedene Themen sowie die Vertretung in bestimmten Situationen, in denen Sie bestimmte Einschränkungen haben.
Darüber hinaus erwähnt Eric Schmidt als weiteres Instrument, dass künstliche Intelligenz auch über ein leistungsstarkes Beratungssystem verfügen wird. Wenn Sie also Zweifel haben, ob eine bestimmte Person gut oder böse ist, ob ein Ort zu diesem Zeitpunkt gefährlich ist oder in welche Richtung Sie reisen sollten, können Sie Ihr „zweites Ich“ fragen:
Hat KI eine eigene Persönlichkeit?
Während einige Leute vielleicht denken, dass KIs ihre eigene Persönlichkeit haben und 100 % autonom sind, stimmt das nicht. Was wirklich passiert, ist, dass Googles LaMDA so intensiv ist, dass man glaubt, mit jemandem zu sprechen, der über echtes Wissen verfügt. Sie ist nützlich, aber bewusstlos.
Künstliche Intelligenz sei ein System, das ständig lernt, wie Schmidt in einer Konferenz sagte. Aber wir können nicht tatenlos zusehen, wie Innovationen unser Leben verändern. Der beste Freund eines Kindes kann keine Maschine sein. Obwohl sie für verschiedene Aktivitäten sehr nützlich und funktional sein kann, ist die Wahrheit, dass KI nicht mit einer Person gleichzusetzen ist und sein sollte.
Abschließend betonte er, dass der Mensch die Maschinen nicht entscheiden lassen könne, ob er sich auf einen Kampf einlasse oder nicht, da dies gefährlich sei. Schließlich müssen immer auch einige andere Aspekte berücksichtigt werden, die nicht von Robotern berechnet und analysiert werden.