AI: "Wir haben ein bisschen Angst", warnte der ChatGPT-Erfinder!

Sam Altman, CEO von OpenAI, warnte, dass die Menschheit auf die negativen Folgen der KI vorbereitet sein muss. Desinformation und Cyberangriffe sind die größten Sorgen.

IA ChatGPT
ChatGPT, das leistungsstarke KI-Tool, das die Welt von heute revolutioniert. Foto: Pixa

Künstliche Intelligenz (KI) steht mit der jüngsten Veröffentlichung des GPT-4-Sprachmodells, der neuesten Version von ChatGPT, wieder im weltweiten Rampenlicht. Das neue Tool verblüfft mit seinen Fähigkeiten, wirft aber auch große Probleme auf, mit denen auch sein Schöpfer, Sam Altman, derzeitiger CEO des Unternehmens OpenAI, konfrontiert ist.

In einem kürzlichen Interview mit dem US-Medienunternehmen ABC News räumte Altman ein, dass es ein großes Potenzial gibt, das noch entwickelt werden muss, dass die Technologie aber auch echte Gefahren für die Menschheit mit sich bringen könnte.

"Wir müssen vorsichtig sein und gleichzeitig verstehen, dass es nicht gut ist, alles in einem Labor zu haben. Es ist ein Produkt, das wir verbreiten und mit der Realität in Berührung bringen müssen, und wir müssen Fehler machen, solange die Risiken gering sind. Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben. Wenn ich sagen könnte, dass es mir keine Angst macht, sollten Sie mir nicht vertrauen (...)", sagte er.

Desinformation und Cyberangriffe, Altmans Hauptsorgen

Der CEO von OpenAI hatte zuvor in einem Beitrag auf seinem persönlichen Twitter-Konto seine Befürchtungen geäußert. Diesmal gab er an, dass seine größte Sorge darin besteht, dass künstliche Intelligenz wie ChatGPT dazu verwendet werden könnte, Inhalte zu generieren, um Menschen falsch zu informieren.

"Ich bin besonders besorgt darüber, dass diese Modelle für groß angelegte Desinformationen verwendet werden könnten. Jetzt, da sie immer besser darin werden, Computercode zu schreiben, könnten sie für offensive Cyberangriffe genutzt werden", sagte er in dem Interview.
Sam Altman CEO des Unternehmens OpenAI
Sam Altman, derzeitiger CEO des Unternehmens OpenAI

Auf der anderen Seite sagte Altman, dass die Fähigkeit dieser Tools, Code in einer Vielzahl von Programmiersprachen zu schreiben, Risiken für die Cybersicherheit mit sich bringen könnte. "Jetzt, da sie ihre Programmierfähigkeiten verbessert haben, könnten sie für aggressivere Cyberangriffe genutzt werden", sagte er.

Dennoch gab Altman zu bedenken: "Dies ist ein Instrument, das weitgehend unter menschlicher Kontrolle steht. In diesem Zusammenhang stellte er fest, dass GPT-4 "darauf wartet, dass ihm jemand einen Input gibt", und die Frage ist, wer in Wirklichkeit die Kontrolle über diese Inputs hat.

Die Menschheit braucht Zeit, um sich an die künstliche Intelligenz anzupassen

Altman sagte, dass alle Veränderungen, die durch Fortschritte in der Technologie der künstlichen Intelligenz herbeigeführt werden können, zwar positiv zu bewerten seien, die Menschheit aber Zeit brauche, um sich an sie anzupassen. Er betonte, dass auch OpenAI diesen Anpassungsprozess durchlaufen muss, um etwaigen Missbrauch oder schädliche Folgen solcher Systeme zu korrigieren.

"Wir werden sicherlich Korrekturen vornehmen, wenn diese negativen Ereignisse eintreten. Jetzt, wo die Risiken gering sind, lernen wir so viel wie möglich und geben ständig Feedback, um das System zu verbessern und die gefährlichsten Szenarien zu vermeiden", so der CEO des Unternehmens.