Größer als ChatGPT? OpenAI scheint eine neue „Super-KI“ entwickelt zu haben; aber sie ist gefährlich

protection click fraud

In den letzten Wochen kursierten im Internet Informationen, dass der Verwaltungsrat von OpenAI, dem Erfinder von ChatGPT, hätte Warnungen vor einer potenziell gefährlichen KI für die Menschheit erhalten.

Die Informationen, die von der Nachrichtenagentur Reuters stammen, zeigten auch, dass der neue superintelligente Algorithmus wäre in der Lage, einfache mathematische Probleme auf eine völlig andere Art und Weise zu lösen, als man es bis dahin kannte.

Mehr sehen

Der seit 40 Jahren vom Aussterben bedrohte Vogel wurde kürzlich in Brasilien gefunden

Erhalten BPC-Begünstigte im Dezember ihr 13. Gehalt?

Anstatt herkömmliches maschinelles Lernen, beispielsweise die Trainingsmethode ChatGPT und Google Bard, zu verwenden, hätte die neue KI eine komplexere Architektur, die sie zu einer „Super-KI“ machen könnte.

Q* oder Q-Star für diejenigen, die Ihnen nahe stehen

Nach Angaben von Reuters ist die KI, die Experten alarmiert, Q* oder Q-Star (in der Aussprache ihres Namens).

Wie oben erwähnt, ist diese KI in der Lage, einfache mathematische Probleme zu lösen. Bisher gibt es jedoch nichts Neues, da auch ChatGPT und andere KIs dazu in der Lage sind.

instagram story viewer

Der Punkt ist, dass andere KI-Modelle einfache und unkomplizierte Methoden verwenden, um Antworten auf mathematische Probleme zu liefern. direkt, wobei mathematische Wahrscheinlichkeiten auf exakte Weise verwendet werden, mehr oder weniger wie es Taschenrechner tun konventionell.

Andererseits würde Q-Star eine Methode verwenden, die wir „Verstehen“ nennen können, um Probleme zu lösen. Mit anderen Worten: Diese neue KI würde „denken“, um Probleme zu lösen, genau wie wir Menschen.

(Bild: Offenlegung)

Dieser Sprung von der reinen Verarbeitung hin zu einer Form des Verstehens legt die Messlatte für KI zu einem Konzept namens „künstliche allgemeine Intelligenz“ oder IAG höher.

Laut einigen Experten, die sich bereits mit IAG befasst haben, wäre es in der Lage, Maschinen in die Lage zu versetzen, „selbst zu denken“ und den Menschen bei einer Reihe komplexerer Aufgaben zu übertreffen.

In diesem Sinne kann IAG das Leben von Kriminellen schädigen, die Techniken wie verwenden Deepfake und Voice-Cloning, zum Beispiel, um Betrügereien durchzuführen und Spaltungen zu schaffen.

Aus all diesen Gründen erfordert das Auftreten von Q* und das mögliche Auftreten ähnlicher KIs große Wachsamkeit seitens der Behörden. Denn der Missbrauch von Technologie mit diesen Eigenschaften kann der Menschheit tatsächlich schaden.

Abschluss in Geschichte und Personaltechnologie. Mit Leidenschaft für das Schreiben lebt er heute den Traum, professionell als Web Content Writer zu arbeiten und Artikel in verschiedenen Nischen und Formaten zu schreiben.

Teachs.ru
Optische Täuschung verrät, ob Sie ein guter Ratgeber sind

Optische Täuschung verrät, ob Sie ein guter Ratgeber sind

Sind Sie ein guter Ratgeber? Wir bereiten einen Test vor optische Täuschung in dem, was Sie zuers...

read more

Pädagogische Spielzeuge erfreuen sich bei Eltern und Erziehern immer größerer Beliebtheit

Viele Eltern suchen nach Möglichkeiten, das Interesse ihrer Kinder an Naturwissenschaften zu weck...

read more

10 Must-Have-Tipps für das Lernen zu Hause

zu Hause lernen Es ist nicht immer einfach, auch wenn es grundlegend ist. Während Sie versuchen, ...

read more
instagram viewer