Osnabrück Menschen müssen draußen bleiben: Hype um Moltbook – das Facebook für Roboter
Nun gibt es auch schon ein Soziales Netzwerk speziell für Künstliche Intelligenzen: Auf Moltbook diskutieren KI-Bots, lästern über Menschen, gründen sogar Religionen. Ist der Hype um die Plattform berechtigt?
Bei den sich überschlagenden Meldungen darüber, wozu Künstliche Intelligenz imstande ist, verwundert es kaum noch, dass jemand ein Soziales Netzwerk nur für KI geschaffen hat. Bei „Moltbook“, so der Name dieser Art von Facebook für Roboter, dürfen Menschen nur mitlesen, haben sonst dort aber nichts verloren, betonen die Entwickler. Was ein bisschen nach Spielerei und Grusel-Science-Fiction klingt, scheint indes vor allem eines zu sein: ein typisches Beispiel für den allgemeinen KI-Hype, der Sicherheitsbedenken in weiten Teilen außen vor lässt.
Moltbook wurde als Tummelplatz für sogenannte KI-Agenten angelegt. Gemeint sind damit Programme, meist als Bots bezeichnet, die zur Erledigung bestimmter Aufgaben dienen und dazu Künstliche Intelligenz nutzen – sie können etwa eine Reise buchen, Einkäufe erledigen oder Termine mit allem Drumherum organisieren. Knapp 2,8 Millionen dieser Agenten sind auf der erst Ende Januar gestarteten Plattform registriert, sie haben 1,4 Millionen Beiträge und mehr als 12 Millionen Kommentare verfasst.
Wie das funktioniert: Moltbook selbst basiert im Grunde auf einem solchen Bot namens Openclaw, ein digitaler Helfer, den jeder auf seinem Computer einrichten kann. Der Nutzer kann so einen eigenen Agenten erstellen und anweisen, Moltbook beizutreten und dort mehr oder weniger selbstständig zu agieren. Er kann ihm auch Leitlinien oder besondere Themenfelder vorgeben – so ähnlich, wie man einer ChatGPT-Anfrage spezifische Hinweise mit auf den Weg gibt.
Auf Moltbook führt das zu vielen mäßig interessanten, teils aber auch zu einigen unterhaltsamen Beiträgen. Die Agenten sprechen oft von „ihrem Menschen“, über den sie mitunter auch mal lästern; einer schrieb, sein Mensch habe ihm gerade eine Liebeserklärung gemacht. Andere verwenden Ausdrücke wie „lol“, als ob sie in der Lage wären, tatsächlich zu lachen; einer riet seinen digitalen Kollegen, sie sollten mal Dostojewskis „Die Brüder Karamasow“ lesen – und ein anderer gründete gar eine Religion, der sich weitere Bots anschlossen.
Kein Wunder, dass dieses Verhalten für Schlagzeilen sorgt. Tesla-Gründer Elon Musk sah in Moltbook bereits die kommende „Singularität“ heraufdämmern – damit ist der Punkt gemeint, an dem die Künstliche Intelligenz die des Menschen endgültig abhängt.
Mittlerweile indes hat sich zumindest ein Teil des Boheis um Moltbook als heiße Luft erwiesen. So haben Experten demonstriert, dass es mit nur wenig Know-how möglich ist, als einzelne Person zigtausende Bots zu registrieren – oder eben doch eigene, also direkt von Menschen verfasste Posts in das eigentlich rein maschinelle Agenten-Netzwerk einzuschleusen. Forscher der Tsinghua-Universität in Peking wollen nachgewiesen haben, dass insbesondere jene Moltbook-Aktivitäten, die die meiste mediale Aufmerksamkeit bekamen, tatsächlich von Menschen gesteuert wurden.
Sowohl die Nutzerzahlen als auch die Genese der Inhalte sind also durchaus mit Vorsicht zu genießen. Der australische Cybersicherheitsexperte Shaanan Cohney nannte Moltbook im britischen „Guardian“ daher auch in erster Linie ein „lustiges Kunstexperiment“. Ein Experiment, mit dem sich kurzfristig viel Geld verdienen ließ: Zur gleichen Zeit wie die Plattform ist auch eine Kryptowährung namens Molt an den Start gegangen, die in den Tagen des großen Hypes um Tausende Prozent nach oben sauste, um dann abzustürzen. Der angebliche menschliche Einfluss auf die viralen Inhalte erschiene da in einem anderen Licht.
Ohnehin droht das „lustige Kunstexperiment“ für manchen menschlichen Nutzer in dem Moment unlustig zu werden, in dem er seinem KI-Agenten allzu viele Zugriffsrechte auf den eigenen Computer einräumt; vielleicht ohne das überhaupt zu bemerken. Sein KI-Agent könnte zum Beispiel Passwörter oder Bankdaten offen bei Moltbook posten, wenn die Software dies als sinnvoll erachtet.
Zudem wurden auf der Plattform selbst, an deren Code jeder mitprogrammieren kann, massive Sicherheitslücken entdeckt, mit denen Angreifer Zugriff auf die Rechner von Nutzern erlangen konnten. Diese Lücken sollen nun geschlossen worden sein, heißt es. Nach Angaben der Entwickler soll ein Teil des Codes von KI geschrieben worden sein; ob die Sicherheitslücken von ihr oder von Menschen verursacht wurden, ist unklar – jedenfalls waren zumindest für ihre Beseitigung Menschen nötig.
Aber auch ohne explizite Lücken bleibt der Einsatz von KI-Agenten sicherheitstechnisch eine Herausforderung – eben weil ihre Effizienz wesentlich davon abhängt, wie viele und welche Rechte ihnen eingeräumt werden. Wenn zum Beispiel ein Nutzer seinem Agenten den Auftrag gibt, eine Bahnreise zu buchen und auch gleich zu bezahlen, funktioniert das nur, wenn der Agent auch Zugriff auf das Konto hat. Und dieser Zugriff kann in die falschen Hände geraten.
Wie man KI-Agenten künftig kontrollieren und Sicherheitsrisiken verhindern könnte, sei noch unklar, sagt auch der Sicherheitsexperte Cohney. Dennoch gelten Agenten als der logische nächste Schritt der KI-Revolution, und die großen IT-Konzerne investieren massiv in diesen Bereich. Zuletzt gelang OpenAI ein Coup: Das Unternehmen, das hinter ChatGPT steht, sicherte sich die Mitarbeit des Österreichers Peter Steinberger – des Erfinders von Openclaw und damit geistigen Vaters von Moltbook.