Künstliche Intelligenz in der Realität

Bild im Breitformat, das zwei Gesichter zeigt – eines menschlich und eines digital – die sich gegenüberstehen, getrennt durch eine klare Grenze.

Was ChatGPT wirklich kann – und was nicht

(TL). Es wurden große Erwartungen an die Leistungsfähigkeit von Modellen wie ChatGPT geknüpft. Doch eine neue Studie, die unter der Leitung der Technischen Universität Darmstadt (TU) durchgeführt wurde, stellt diese Erwartungen infrage und zeigt, dass die Realität weit von der Vision einer selbstständig denkenden KI entfernt ist.

Die Studie im Überblick

Die Untersuchung, die im August 2024 auf der Jahrestagung der Association for Computational Linguistics (ACL) in Bangkok vorgestellt wird, beleuchtet die Grenzen sogenannter Large Language Models (LLMs) wie ChatGPT. Im Mittelpunkt der Studie standen die sogenannten „emergenten Fähigkeiten“ dieser Modelle – unerwartete Leistungssteigerungen, die durch die Skalierung der Modelle, also deren Vergrößerung und die Verarbeitung von immer größeren Datenmengen, hervorgerufen wurden. Diese emergenten Fähigkeiten hatten Hoffnungen geweckt, dass KI-Systeme bald in der Lage sein könnten, komplexes und autonomes Denken zu entwickeln. Gleichzeitig wurden auch Ängste geschürt, dass solche Systeme möglicherweise außer Kontrolle geraten könnten.

Ernüchternde Ergebnisse

Die Ergebnisse der Studie unter der Leitung von Prof. Iryna Gurevych von der TU Darmstadt und Dr. Harish Tayyar Madabushi von der University of Bath zeichnen jedoch ein ernüchterndes Bild. Die Forscher konnten keine Hinweise darauf finden, dass die Modelle tatsächlich ein differenziertes und intelligentes Verhalten entwickeln. Vielmehr zeigen die LLMs, so die Studie, nur eine oberflächliche Fähigkeit, einfache Anweisungen zu befolgen, und bleiben weit hinter dem zurück, was Menschen an Denkfähigkeiten besitzen.

Was bedeutet das für die Nutzung von KI?

Diese Erkenntnisse haben weitreichende Implikationen für die Art und Weise, wie KI-Systeme eingesetzt werden. „Es wäre ein Fehler, sich blind auf ein KI-Modell zu verlassen, um komplexe Aufgaben ohne menschliche Intervention zu bewältigen“, warnt Gurevych. Die Forscherin betont, dass Nutzende klar formulieren müssen, was die Modelle leisten sollen, und dass sie dabei konkrete Beispiele angeben sollten. Besonders wichtig ist, sich der Tendenz dieser Modelle bewusst zu sein, plausible, aber falsche Ergebnisse zu liefern – eine Herausforderung, die trotz aller Fortschritte in der Entwicklung der Modelle weiterhin besteht.

Blick in die Zukunft: Fokussierung auf reale Risiken

Die Studie stellt klar, dass KI-Modelle zwar keine selbstständig denkenden Wesen sind, sie jedoch dennoch Risiken bergen. Gurevych und ihre Kolleg fordern daher eine Verlagerung der Forschungsprioritäten. Anstatt sich auf die Spekulation über die Entwicklung komplexer Denkfähigkeiten zu konzentrieren, sollten die potenziellen Gefahren in den Fokus rücken, die von der gegenwärtigen Nutzung dieser Modelle ausgehen – wie beispielsweise das Risiko der Verbreitung von Fake News.

Die neue Studie der TU Darmstadt zeigt, dass die heutigen KI-Modelle zwar beeindruckende Werkzeuge sind, aber noch weit davon entfernt, eigenständig komplexe Denkprozesse auszuführen. Für Nutzer bedeutet dies, dass ein verantwortungsbewusster und kritischer Einsatz dieser Technologien unerlässlich ist. Statt sich auf die vermeintlichen Fähigkeiten der KI zu verlassen, sollten sie stets im Hinterkopf behalten, dass menschliches Urteilsvermögen und Kontrolle nach wie vor unerlässlich sind.

Ein Porträtfoto von CEO Anna Müller, die vor einem großen Bildschirm mit Unternehmenskennzahlen steht

Erfolgreiche Datenintegration

Datenkompetenz als Schlüssel zum Geschäftserfolg: TechCorp integriert Datenplattform für Echtzeitentscheidungen (TL). In der modernen Geschäftswelt wird Datenkompetenz nicht nur als nützlich, sondern als essenziell angesehen. TechCorp, ein weltweit tätiges Technologieunternehmen,...
Ein dynamisches Bild eines Unternehmens, das sich an präzisen und gut visualisierten Daten orientiert, symbolisiert durch einen leitenden Angestellten im Vordergrund und andere Mitarbeiter, die an Computern arbeiten.

Die verborgenen Schätze der Datenqualität

Definition und Dimensionen der Datenqualität enthüllt (TL). Stellen Sie sich vor, Sie stehen vor einer alten Schatzkarte. Diese Karte führt Sie durch unbekannte Gebiete, vorbei an Hindernissen und Gefahren, hin...
Visuelle Dublettensuche: Eine große Kundenliste auf einem Bildschirm, wobei Dubletten rot markiert und automatisch entfernt werden. Daneben ist eine saubere, konsolidierte Kundenliste in Grün zu sehen, die Effizienz und Präzision symbolisiert.

Datentools im Fokus

Wie TOLERANT Software die Unternehmenswelt revolutioniert (TL). In der modernen Geschäftswelt ist die Qualität und Genauigkeit von Daten der Schlüssel zum Erfolg. Unternehmen müssen sicherstellen, dass sie nicht nur über...