Was ist künstliche allgemeine Intelligenz (AGI)? Erläutert

Die Forschung im Bereich der Künstlichen Intelligenz (KI) entwickelt sich rasant weiter, und das Konzept der AGI (Artificial General Intelligence) – oder auf Deutsch: Künstliche Allgemeine Intelligenz – beginnt, von der Theorie in die Realität überzugehen. Wir erleben derzeit das Anfangsstadium des Zeitalters der Künstlichen Intelligenz, in dem bereits zahlreiche generative KI-Anwendungen verfügbar sind. Aber was ist der nächste Schritt? Ist AGI die Zukunft? Um zu verstehen, was Künstliche Allgemeine Intelligenz (AGI) ist und welche Auswirkungen sie auf die Menschheit haben könnte, lesen Sie weiter.

Was ist Künstliche Allgemeine Intelligenz oder AGI?

Was die Definition von AGI betrifft, gibt es unter Forschern und KI-Labors keinen breiten Konsens über ihre Bedeutung. Der Begriff AGI – Künstliche Allgemeine Intelligenz – wird jedoch hauptsächlich als eine Art von KI-System verstanden, das in der Lage ist, menschliche Fähigkeiten zu erreichen oder zu übertreffen, insbesondere in kognitiven Aufgaben.

Viele KI-Labors haben ihre eigene Definition von AGI. Im Februar 2023 erklärte OpenAI, was AGI für sie bedeutet: „KI-Systeme, die im Allgemeinen intelligenter sind als Menschen“. Das Unternehmen möchte eine AGI entwickeln, die der gesamten Menschheit zugutekommt. Gleichzeitig erkennt OpenAI die „ernsthaften“ Risiken an, die mit einer Technologie wie AGI verbunden sind, die das Potenzial für „Missbrauch, drastische Unfälle und gesellschaftliche Störungen“ birgt.

Shane Legg, einer der Mitbegründer von DeepMind (heute Google DeepMind) und derzeit Chief AGI Scientist des Unternehmens, prägte zusammen mit seinem Kollegen Ben Goertzel den Begriff AGI. Legg beschreibt AGI als ein sehr breites Konzept. Die Position von DeepMind zu AGI ist, dass ein solches System „nicht nur in der Lage sein muss, eine Vielzahl von Aufgaben zu erledigen, sondern auch lernen muss, wie man diese Aufgaben bewältigt, seine Leistung bewertet und um Hilfe bittet, wenn notwendig.“

Das Team von Google DeepMind hat verschiedene Stufen von AGI skizziert: aufkommend, kompetent, expertenhaft, virtuos und übermenschlich. Derzeit zeigen die an vorderster Front stehenden KI-Modelle einige aufkommende Verhaltensweisen, glauben die Forscher von DeepMind.

Merkmale von AGI

Ähnlich wie es keinen breiten Konsens über die Definition von AGI gibt, sind auch ihre Merkmale nicht klar definiert. Forscher der KI sind sich jedoch einig, dass AGI auf dem menschlichen Niveau in der Lage sein sollte, wie Menschen zu argumentieren und Entscheidungen auch unter Unsicherheit zu treffen. Sie sollte über Kenntnisse in nahezu allen Bereichen verfügen, einschließlich des gesunden Menschenverstandes.

Darüber hinaus sollte ein AGI-System in der Lage sein, zu planen und neue Fähigkeiten zu erlernen. Es müsste offene Fragen lösen und in natürlicher Sprache kommunizieren können. Kognitive Wissenschaftler argumentieren, dass AGI-Systeme auch Eigenschaften wie Vorstellungskraft besitzen sollten, um neuartige Ideen und Konzepte zu entwickeln. Zu den Merkmalen von AGI gehören auch körperliche Fähigkeiten wie Sehen, Hören, Bewegen und Handeln.

Um zu testen, ob KI-Modelle AGI erreicht haben, gibt es viele Tests, einschließlich des berühmten Turing-Tests. Dieser, benannt nach dem Informatiker Alan Turing, dient dazu, zu prüfen, ob ein KI-System menschliche Gespräche gut genug nachahmen kann, sodass eine Person nicht erkennen kann, ob sie mit einer Maschine spricht.

Viele glauben, dass aktuelle KI-Chatbots bereits den Turing-Test bestanden haben. Der Test schlägt jedoch auch vor, dass eine Maschine intelligentes Verhalten aufweisen sollte, das dem von Menschen entspricht. Weitere Tests umfassen den Employment Test, der von John Nilsson vorgeschlagen wurde. Dieser fordert, dass eine Maschine eine entscheidende Aufgabe ähnlich wie Menschen ausführen sollte.

Steve Wozniak, der Mitbegründer von Apple, hat auch den Coffee Test vorgeschlagen, um ein intelligentes KI-System zu bewerten. Er sagt, dass ein ausreichend intelligentes KI-System in der Lage sein sollte, die Kaffeeküche zu finden, Wasser und Kaffee hinzuzufügen und den Brühprozess ohne menschliches Eingreifen abzuschließen.

Stufen von AGI

OpenAI ist der Ansicht, dass AGI nicht in einem einzigen Schritt erreicht werden kann, sondern dass es mehrere aufsteigende Stufen des Fortschritts geben wird, um letztendlich AGI zu realisieren. Bloomberg berichtete kürzlich, dass OpenAI fünf Fortschrittsstufen auf dem Weg zur Verwirklichung des AGI-Ziels entwickelt hat.

Die erste Stufe ist die Conversational AI, wo wir uns derzeit mit Chatbots wie ChatGPT, Claude und Gemini befinden. Die zweite Stufe ist die Reasoning AI, wo KI-Modelle wie Menschen argumentieren können. Hier sind wir noch nicht. Die dritte Stufe ist die Autonomous AI, wo KI-Agenten autonom im Namen des Benutzers handeln können.

Die vierte Stufe ist die Innovating AI, wo intelligente KI-Systeme sich selbst innovieren und verbessern können. Und schließlich ist die fünfte Stufe die Organizational AI, wo ein KI-System Maßnahmen ergreifen und die Aufgaben einer gesamten Organisation ausführen kann, ohne dass Menschen in den Prozess involviert sind. Solche KI-Systeme können scheitern, lernen, sich verbessern und mit mehreren Agenten zusammenarbeiten, um Aufgaben parallel auszuführen.

AGI-Fortschritt und Zeitrahmen: Wie nah sind wir dran, es zu erreichen?

Bildnachweis: Shutterstock

Sam Altman, CEO von OpenAI, glaubt, dass wir in den nächsten zehn Jahren die fünfte Stufe – die Organizational AI – erreichen können. Viele Experten haben unterschiedliche Prognosen darüber, wann wir den AGI-Traum verwirklichen können. Ben Goertzel sagt voraus, dass wir AGI in den nächsten Jahrzehnten, möglicherweise in den 2030er Jahren, erreichen könnten.

Geoffrey Hinton, bekannt als der „Pate der KI“, äußerte anfangs Zweifel an dem Zeitplan für AGI. Mittlerweile ist er der Ansicht, dass eine Allgemeine KI in nur 20 Jahren möglich sein könnte.

François Chollet, ein prominenter Forscher bei Google DeepMind und Schöpfer von Keras, ist der Meinung, dass AGI nicht durch die Skalierung der aktuellen Technologien wie LLMs erreicht werden kann. Er hat sogar einen neuen Maßstab namens ARC-AGI entwickelt und einen öffentlichen Wettbewerb gestartet, um herauszufinden, ob die aktuellen KI-Modelle ihn lösen können. Chollet argumentiert, dass sich die Entwicklung von AGI festgefahren hat und neue Ideen erforderlich sind, um Fortschritte zu erzielen.

Yann LeCun, der Chief AI Scientist bei Meta, sagt ebenfalls, dass LLMs Einschränkungen haben und nicht ausreichen, um AGI zu erreichen, da sie an Intelligenz und argumentativen Fähigkeiten mangeln.

Existentielle Risiken von AGI

Während die KI-Entwicklung weltweit in vollem Gange ist, glauben viele Experten, dass die Erreichung von AGI die Menschheit gefährden würde. OpenAI selbst räumt die erheblichen Risiken ein, die mit der Technologie verbunden sind. Geoffrey Hinton stellte nach seinem Rücktritt bei Google fest, dass „es nicht unvorstellbar“ sei, wenn er gefragt wurde, ob KI die Menschheit auslöschen könnte, und betonte, dass Wege gefunden werden müssten, um wesentlich intelligentere KI-Systeme zu kontrollieren.

Da ein AGI-System in der Lage sein könnte, menschliche Fähigkeiten zu erreichen, könnte dies zu massiver Arbeitslosigkeit in vielen Branchen führen. Dies würde die wirtschaftlichen Schwierigkeiten weltweit nur verstärken. OpenAI hat bereits ein Papier veröffentlicht, in dem dargelegt wird, welche Berufe durch ChatGPT ersetzt werden könnten. Darüber hinaus birgt ein so leistungsstarkes System Risiken des Missbrauchs oder unbeabsichtigte Folgen, wenn es nicht mit menschlichen Werten abgestimmt ist.

Elon Musk hat ebenfalls Alarm geschlagen über die Gefahren von AGI und betont, dass die Entwicklung von AGI sich vorrangig an den menschlichen Interessen orientieren sollte. Im letzten Jahr forderte Musk zusammen mit prominenten Größen der Branche eine Pause bei großen KI-Experimenten.

Ilya Sutskever, Mitbegründer von OpenAI und ehemaliger Chief Scientist, hat das Unternehmen verlassen, um ein neues Startup namens Safe Superintelligence zu gründen. Er sagt: „KI ist ein zweischneidiges Schwert: Sie hat das Potenzial, viele unserer Probleme zu lösen, schafft aber auch neue. Die Zukunft wird unabhängig davon gut für die KI sein, aber es wäre schön, wenn sie auch gut für die Menschen wäre.“

Ilya arbeitet jetzt daran, mächtige KI-Systeme mit menschlichen Werten in Einklang zu bringen, um katastrophale Folgen für die Menschheit zu verhindern. Timnit Gebru, eine ehemalige KI-Forscherin bei Google, wurde von dem Unternehmen entlassen, weil sie ein Papier veröffentlicht hatte, das die Risiken von großen Sprachmodellen (LLMs) hervorhob. Sie argumentiert, dass wir statt zu fragen, was AGI ist, fragen sollten: „Warum sollten wir es bauen?“

AGI könnte potenziell die soziale Struktur der Gesellschaft mit weitreichendem Jobverlust beeinflussen. Dies könnte bestehende Ungleichheiten weiter vertiefen und zu Konflikten und Ressourcenknappheit führen. Damit stellt sich die Frage: Sollten wir sie überhaupt bauen? Es gibt viele Fragen und ethische Bedenken, die angesprochen werden müssen, bevor wir mit der Entwicklung eines AGI-Systems beginnen. Was sind Ihre Gedanken zu AGI? Lassen Sie es uns in den Kommentaren wissen.