Wie man eine übermenschliche künstliche Intelligenz "mit einer anderen KI" kontrolliert, sagt das Unternehmen ChatGPT!

Seit Mitte des Jahres arbeitet die Firma OpenAI, die für ChatGPT verantwortlich ist, nach eigenen Angaben an der Beantwortung der Frage: Wie kann man übermenschliche künstliche Intelligenz kontrollieren?

OpenAI, Eigentümer von ChatGPT, konzentriert seine Ressourcen auf die Kontrolle übermenschlicher Intelligenz durch andere KI.
OpenAI, Eigentümer von ChatGPT, konzentriert seine Ressourcen auf die Kontrolle übermenschlicher Intelligenz mit einer anderen KI. Kredit: Jakub Porzycki/NurPhoto

Einer der Höhepunkte des Jahres 2023 war der Boom des ChatGPT-Tools, das Nutzerrekorde brach und das am schnellsten wachsende Tool war. Daraufhin haben sich bereits andere Unternehmen wie Google in das Rennen gestürzt, um ihre eigenen Sprachmodelle und Chatbots ähnlich wie ChatGPT zu entwickeln.

Die Fähigkeit von ChatGPT, Fragen zu beantworten und Probleme zu lösen, ist beeindruckend. Einige vermuten sogar, dass wir kurz vor einer allgemeinen künstlichen Intelligenz stehen, die alles kann, was ein Mensch kann, und zwar besser. Dies ist eine Befürchtung, die ChatGPTs eigenes Unternehmen, OpenAI, kürzlich geäußert hat.


Zu diesem Zweck argumentiert OpenAI, dass es seine Ressourcen auf die Beantwortung der Frage konzentriert hat: Wie können wir übermenschliche künstliche Intelligenz kontrollieren, damit sie das tut, was wir wollen? Nun ist OpenAI zu einem Schluss gekommen: Wir können künstliche Intelligenz nur mit anderer künstlicher Intelligenz kontrollieren.

Künstliche Intelligenz

Auf die Frage, was künstliche Intelligenz ist, gibt es je nach Literatur unterschiedliche Antworten. Die bekannteste ist die Definition, die Alan Turing in seinem Artikel aus dem Jahr 1950 vorstellte, als er die Frage stellte, ob Maschinen denken können. Damals verwendete Turing den Begriff denkende Maschinen.

Für Turing war künstliche Intelligenz all das, was eine Maschine tun kann und was auch ein Mensch tun kann.

Seit Turings Artikel ist der Bereich in den letzten Jahrzehnten gewachsen, insbesondere seit den 2010er Jahren mit der Entwicklung immer leistungsfähigerer Maschinen. Heute ist künstliche Intelligenz Teil unseres Lebens, vom Benutzen eines Mobiltelefons mit einem virtuellen Assistenten bis hin zum Beitritt zu sozialen Netzwerken, die Empfehlungssysteme verwenden.

Sprachmodelle

Was jedoch die meiste Aufmerksamkeit auf das Potenzial der künstlichen Intelligenz gelenkt hat, sind Sprachmodelle. Diese sogenannten LLMs (large language models) sind Modelle, die aus der Beobachtung von Tausenden oder Millionen von Texten und Bildern lernen und in der Lage sind, Fragen zu beantworten, Texte zusammenzufassen, Diagramme zu erstellen usw.

Das bekannteste Modell ist ChatGPT von der Firma OpenAI. Vor kurzem erhielt ChatGPT eine neue Version des GPT-Sprachmodells, das die Erwartungen übertrifft und sogar neue Daten analysieren kann. Das wirft die Frage auf: Wo liegen die Grenzen der künstlichen Intelligenz?

Das Problem der Angleichung

Wie können wir künstliche Intelligenzen, die viel intelligenter sind als wir, dazu bringen, genau das zu tun, was wir von ihnen wollen? Diese Frage klingt wie aus einem Science-Fiction-Film, ist aber bereits Realität. Diese Frage wird als Anpassungsproblem bezeichnet: Wie können wir sicherstellen, dass wir nicht die Kontrolle über etwas verlieren, das viel intelligenter ist als wir?

youtube video id=8haX32lr7r0

Das Problem besteht darin, dass wir nur dann eine Chance haben, es richtig zu machen, wenn wir eine übermenschliche künstliche Intelligenz erreichen. Dies veranlasst Unternehmen wie OpenAI dazu, sich auf die Frage zu konzentrieren, wie man diese Frage beantworten kann, ohne die Kontrolle über das zu verlieren, was das Unternehmen heute florieren lässt.

Wie sollten sie etwas Übermenschliches kontrollieren?

Die Antwort auf diese Frage besteht laut einer neuen Veröffentlichung von OpenAI darin, andere künstliche Intelligenzen für diese Arbeit zu verwenden. Die Idee ist, kleinere künstliche Intelligenzsysteme zu verwenden, um eine umfassendere künstliche Intelligenz überwachen zu können.

Ein Beispiel für den Einsatz von OpenAI ist die Verwendung des 2019 eingeführten GPT-2 zur Überwachung des 2023 eingeführten GPT-4.

Auf diese Weise könnte das kleinere Modell der künstlichen Intelligenz die größeren Modelle überwachen und Probleme finden. Dies wäre eine schwierige Aufgabe für den Menschen, der dem Artikel zufolge ein schlechter Überwacher wäre.

Können wir an eine KI mit einer anderen KI glauben?

OpenAI argumentiert, dass dies der beste Weg ist, um sicherzustellen, dass wir die Kontrolle über diese übermenschlichen KIs nicht verlieren. Allerdings müssen noch Anstrengungen bei der Erforschung und Anwendung dieser Techniken unternommen werden.

Der Veröffentlichung zufolge hofft man, die Antwort in vier Jahren zu haben, wenn die Bemühungen zur Verbesserung dieser Sprachmodelle weitergehen. Es gibt bereits eine Diskussion über OpenAIs kommende neue KI namens Q*, die behauptet, sie könnte sogar logisches Denken lösen.