Weiß KI, wie es ist, einen Körper zu haben und die natürliche Welt zu erleben?
Kann KI genauso gut wie Menschen arbeiten, wenn es um Erfahrungen mit den Sinnen der natürlichen Welt und dem menschlichen Körper geht? Eine neue Veröffentlichung gibt Antworten.

Künstliche Intelligenz (KI), z. B. in großen Sprachmodellen (LLM), kann das Konzept der Formenin der Natur und die Empfindungen des Körpers nicht wirklich so erfassen wie wir Menschen.
Das liegt daran, dass sieweitgehend auf Text und in einigen Fällen auf Bilderangewiesen sind. Aber Texte und Bilder enthalten nicht alle Informationen über die Welt. Es gibt noch ein weiteres Element zu berücksichtigen - die menschliche Erfahrung.
Ein blumiges Beispiel
Nehmen wir als Beispiel eine Blume: Ein KI-Modell kann nicht "wissen", wie es ist, eine Blume in ihrer natürlichen Umgebung zu erleben, von ihrem Geruch bis hin zu der Erfahrung, durch ein Feld mit Tulpen zu gehen.
Qihui Xu, Post-Doc-Forscher in Psychologie an der Ohio State University, erklärt: "Ein großes Sprachmodell kann nicht an einer Rose riechen, die Blütenblätter eines Gänseblümchens berühren oder durch ein Wildblumenfeld gehen".
"Ohne diese sensorischen und motorischen Erfahrungen kann es nicht wirklich darstellen, was eine Blume in ihrer ganzen Fülle ist. Das Gleiche gilt für einige andere menschliche Konzepte".
Xu hat zusammen mit anderen Autoren in der Fachzeitschrift Nature Human Behaviour einen Artikel über die Beziehung zwischen KI und Menschen veröffentlicht.
"Wenn die KI die Welt grundlegend anders interpretiert als der Mensch, könnte dies Auswirkungen darauf haben, wie sie mit uns interagiert", sagte sie.
Xu und ihr Team verglichen Menschen und LLMs in ihrer Interpretation von 4.442 Wörtern, darunter Wörter von "Blume" und "Huf" bis hin zu "humorvoll" und "Schaukel".
Der Studienansatz: Glasgow vs. Lancaster "Normen
Das Team verglich die Beziehung zwischen Menschen und LLMs anhand von zwei LLM-"Familien ", die von OpenAI (GPT-3.5 und GPT-4) und Google (PaLM und Gemini) stammen. Menschen und LLMs wurden beide anhand von "Normen" getestet: Glasgow-Normen und Lancaster-Normen.
Bei den Glasgow-Normen wurden die Wörter nach Erregung, Konkretheit und Vorstellbarkeit bewertet. So wird beispielsweise gefragt, wie man sich eine Blume vorstellen kann oder wie emotional erregend eine Blume ist.
Bei den Lancaster-Normen ging es um die sensorische Erfahrung von Wörtern und die motorische Kontrolle. Das kann bedeuten, dass der Benutzer aufgefordert wird, zu bewerten, wie sehr eine Blume durch den Geruch oder in Verbindung mit dem Bauch oder der Brust empfunden wird.
Das mag ungewöhnlich klingen, aber das übergeordnete Ziel war es, herauszufinden, wie die LLMs und der Mensch bei diesen Tests übereinstimmten und ob sie ähnliche körperliche Reaktionen oder emotionale Assoziationen erleben.
Die zusätzliche Analyse
Bei der zweiten Analyse ging es darum, herauszufinden, inwieweit sich Menschen von LLMs in der Wahrnehmung der Darstellung und Verbindung von Wörtern unterscheiden. Dies könnte der Vergleich zwischen Rosen und Nudeln sein, die für einen Menschen wahrscheinlich als sehr unterschiedlich angesehen werden würden.
Was die Ergebnisse zeigen
Die LLMs waren gut darin, Wörter darzustellen, die keine starke Verbindung zu unseren Sinnes- und Bewegungsaktionen im Körper hatten. Die KI-Modelle waren nicht mit den Menschen vergleichbar, wenn es um Wörter ging, die mit den Empfindungen des Körpers und den Sinnen, wie z. B. dem Sehen, verbunden sind.
"Vom intensiven Duft einer Blume über die lebendige, seidige Berührung, wenn wir Blütenblätter streicheln, bis hin zu der tiefen Freude, die sie hervorruft, verbindet die menschliche Repräsentation von 'Blume' diese verschiedenen Erfahrungen und Interaktionen zu einer kohärenten Kategorie", schreiben die Autoren in ihrem Beitrag.
"Das Problem ist, dass die meisten LLMs von der Sprache abhängig sind, und "Sprache allein kann die begriffliche Repräsentation in ihrer ganzen Fülle nicht vollständig wiederherstellen", stellte Xu klar.
Können LLMs menschliche Konzepte begreifen?
Es scheint, dass LLMs zwar einige menschliche Konzepte verstehen können, aber wenn es um die Erfahrung und Bewegung des Körpers geht, scheint diese Art des Lernens gehemmt zu sein.
"Sie eignen sich ihr Wissen an, indem sie riesige Mengen an Text konsumieren - um Größenordnungen mehr, als ein Mensch in seinem ganzen Leben zu Gesicht bekommt - und können dennoch einige Konzepte nicht so erfassen wie Menschen", so Xu.
"Die menschliche Erfahrung ist viel reichhaltiger, als es Worte allein vermögen.
Was die Zukunft bringen könnte
LLMs entwickeln sich ständig weiter, und es ist gut möglich, dass sie menschliche Konzepte immer besser erfassen, vor allem wenn sie mit immer mehr unterschiedlichen Informationen trainiert werden. Schon jetzt scheint das Senden von Bildern an die Modelle ihre Leistung in diesem Bereich zu verbessern.
Stellen Sie sich vor, was in Zukunft möglich sein wird, wenn LLMs und KI-Modelle mit Informationen aus der Biometrie, den Sensoren und der Robotik gefüttert werden. Dies könnte ihr Verständnis der menschlichen Körpererfahrung und der physischen Welt der Natur verbessern, das derzeit noch begrenzt ist.