Multiagentensysteme: Ein Schritt Richtung AGI oder nur ein Werkzeug der Gegenwart?

Quelle: https://github.com/OpenBMB/ChatDev?tab=readme-ov-file

In den letzten Jahren haben sich zahlreiche Programmierbibliotheken und Services für die Entwicklung von Multiagentensystemen etabliert. Dazu gehören unter anderem CrewAI, LangGraph und weitere.

Doch was sind Multiagentensysteme?

Mehrere KI-Agenten bilden zusammen ein Multiagentensystem. Jeder dieser KI-Agenten verfügt über individuelle Eigenschaften wie spezifische Ziele, Aktionspläne, zugrundeliegende große Sprachmodelle (LLMs) und Werkzeuge (Tools), um gemeinsam Aufgaben zu lösen. Zu den möglichen Tools eines KI-Agenten zählen zum Beispiel die interaktive Websuche, Datenbankzugriffe und Zugriffe auf mittels RAG (Retrieval-Augmented Generation) beschaffte Informationen. Insgesamt lässt sich dieses System beispielsweise mit einem virtuellen IT-Unternehmen vergleichen, in dem unterschiedliche Angestellte mit verschiedenen Rollen (Softwareentwickler, Softwaretester, Manager, Geschäftsführer) zusammenarbeiten, um Aufgaben zu lösen (siehe: https://github.com/OpenBMB/ChatDev?tab=readme-ov-file).

 

Welchen Nutzen können wir daraus ziehen?

Bereits heute eignen sich Multiagentensysteme – den aktuellen technischen Stand vorausgesetzt – für repetitive und einfache Aufgaben. Zu den möglichen Aufgaben eines derartigen Systems gehören beispielsweise die automatische Kommunikation per E-Mail, Marketingaufgaben, Kundenakquise, Datamining, Datenbereinigung, Markt- und Datenanalysen, Fernerkundungen und sogar kleinere Softwareentwicklungsprojekte. Die Verknüpfung zahlreicher Multiagentensysteme zu komplexeren Gesamtsystemen ist natürlich auch möglich. Für die abschließende Überprüfung der Endergebnisse ist es jedoch noch ratsam, den Menschen einzubinden, um die Qualität der Ergebnisse sicherzustellen (siehe: https://www.answer.ai/posts/2025-01-08-devin.html). Doch mit der zunehmenden Qualitätssteigerung von Sprachmodellen werden auch die Ausgabeergebnisse der Multiagentensysteme präziser, was in näherer Zukunft zu stärker autonomen Systemen führen könnte.

Entwicklungstechnisch betrachtet, können Multiagentensysteme als eine fortgeschrittene Stufe auf dem Weg zu einer Künstlichen Allgemeinen Intelligenz (AGI) eingeordnet werden – potenziell ein wichtiger Schritt in Richtung der Gesamtautomatisierung von Unternehmen oder Institutionen. Doch es zeigt sich auch, dass große Sprachmodelle – die derzeit oft als Grundbaustein für Multiagentensysteme eingesetzt werden – allein noch nicht die menschliche Intelligenz und die physikalische Welt umfassend abbilden können (siehe Yann LeCun: Lecture Series in AI: “How Could Machines Reach Human-Level Intelligence?”: https://www.youtube.com/watch?v=xL6Y0dpXEwc und Yann LeCun: Why Can’t AI Make Its Own Discoveries?: https://pod.link/1522960417) und daher wahrscheinlich nur als eine Zwischenstufe hin zur AGI zu sehen sind. Vielleicht sind physikalisch basierte Weltmodelle wie V-JEPA (siehe https://ai.meta.com/blog/v-jepa-yann-lecun-ai-model-video-joint-embedding-predictive-architecture/) in Kombination mit großen Sprachmodellen (LLMs) ein weiterer Schritt, der auch die Präzision von Multiagentensystemen verbessern und den nächsten Schritt in Richtung AGI darstellen könnte.

Dennoch sind wir von einer AGI noch entfernt. Der AGI-Eintrittszeitraum wird von Wissenschaftlern unterschiedlich eingeschätzt: Laut Demis Hassabis könnte sie bereits in fünf bis zehn Jahren eintreten (siehe https://www.cnbc.com/2025/03/17/human-level-ai-will-be-here-in-5-to-10-years-deepmind-ceo-says.html), Geoffrey Hinton gibt einen Zeitraum zwischen fünf und zwanzig Jahren an (siehe https://www.youtube.com/watch?v=MGJpR591oaM) und Yann LeCun erwähnt, dass KI die menschliche Intelligenz in einem optimistischen Szenario in zehn Jahren erreichen könnte (siehe https://www.youtube.com/watch?v=JAgHUDhaTU0).

Daher gilt es, die Risiken der aktuellen und zukünftigen KI-Entwicklung auf dem Weg zum AGI-Zeitalter zu berücksichtigen und zu reduzieren. Mustafa Suleyman ist in seinem Buch „The Coming Wave“ ausführlich darauf eingegangen, und die Europäische Union hat zum Schutz vor riskanten KI-Entwicklungen mit dem EU AI Act (KI-Gesetz) eine rechtliche Grundlage geschaffen. Es ist entscheidend, die Entwicklung so zu gestalten, dass mögliche dystopische Szenarien, wie sie etwa Max Tegmark in „Leben 3.0“ beschreibt, vermieden werden. Ziel muss es sein, sicherzustellen, dass KI zu einem erstrebenswerten Leben für zukünftige Generationen beiträgt.

 

Quellen:
https://github.com/OpenBMB/ChatDev?tab=readme-ov-file
https://www.answer.ai/posts/2025-01-08-devin.html
https://www.youtube.com/watch?v=xL6Y0dpXEwc
https://pod.link/1522960417
https://ai.meta.com/blog/v-jepa-yann-lecun-ai-model-video-joint-embedding-predictive-architecture/
https://www.cnbc.com/2025/03/17/human-level-ai-will-be-here-in-5-to-10-years-deepmind-ceo-says.html
https://www.youtube.com/watch?v=MGJpR591oaM
https://www.youtube.com/watch?v=JAgHUDhaTU0

LinkedIn
X
Facebook
Threads
error: Dieser Inhalt ist geschützt!
Cookie Consent Banner von Real Cookie Banner