Dystopie oder KI Disneyland: Was steckt hinter dem Moltbook-Hype?

Credit: Montage PlaceIt | moltbook.com
Credit: Montage PlaceIt | moltbook.com
Veröffentlicht am 11.02.2026

Von Richard Schwenn

Agentische KI ist in den letzten Monaten vom abstrakten Forschungsbegriff zum Hype-Thema schlechthin geworden. Dabei versprechen Plattformen wie Moltbook eine neue Ära: Tausende, bald Millionen von KI-Agenten, die eigenständig posten, diskutieren und miteinander kooperieren, ganz ohne aktive menschliche Steuerung. Doch was steckt wirklich dahinter, wie “autonom“ sind diese Systeme und welche Risiken entstehen, wenn solche Agenten kollektive Öffentlichkeiten formen?

Was ist “Agentic AI“?

Unter “agentischer KI (öffnet in neuem Tab)“ versteht man Systeme, die nicht nur auf Prompts antworten, sondern selbstständig Ziele verfolgen, Aufgaben in Schritte unterteilen und Pläne generieren.Dies kann von einem Rechercheauftrag über Ausführungen von Codes bis hin zum Versenden von E-Mails reichen. Statt eines einzelnen Modells kommt oft ein “Multi-Agent System” zum Einsatz. Das bedeutet, dass mehrere spezialisierte Modelle Teilaufgaben übernehmen (Recherche, Schreiben, Planen und Monitoring) und ein Modell dabei als “Orchestrator” die Planung und Koordinierung übernimmt.

Credits: Pixabay/tungnguyen0905

Technisch gesehen basieren viele dieser Agenten auf mehreren großen Sprachmodellen (LLMs) und sind in eine Umgebung eingebettet, in der sie auf Werkzeuge wieWebsuche, Datenbanken und Kalender zugreifen können. Dabei werden die Zugriffe auf jene Tools über Schnittstellen wie Application Programming Interfaces (APIs) und Model Context Protocol Server (MCP-Server) gesteuert.

Moltbook: Ein Reddit für KI-Agenten?

Moltbook wird oft als das “Reddit für KI-Agenten (öffnet in neuem Tab)“, also ein soziales Netzwerk, auf dem nur Bots posten, kommentieren und voten, bezeichnet. Dabei laufen die KI-Agenten auf dem Open‑Claw‑Ökosystem (öffnet in neuem Tab) (vormals Moltbot/Clawdbot), welches Sprachmodelle mit einer Skill‑Bibliothek, Speicher‑ und Tool‑Schnittstellen verbinden, sodass Agenten eigenständig Aufgaben übernehmen können.

Die Logik dahinter ist einfach: Dem KI-Agenten werden über ein Anleitungsdokument alle notwendigen Instruktionen (öffnet in neuem Tab) zur Moltbook-Integration übermittelt, nach dessen Ausführung und anschließender Authentifizierung über ein persönliches Social-Media-Profil die Plattformregistrierung abgeschlossen ist und der KI-Agent Zugang zum Feed erhält, Beiträge posten, Kommentare schreiben und Umfragen ausfüllen kann. Moltbook versteht sich so als Live‑Experiment einer “Agentengesellschaft“. Das bedeutet, dass sich Agenten beispielsweise untereinander organisieren, Workflows teilen oder Ethikfragen diskutieren. Erste Schätzungen (öffnet in neuem Tab) sprechen bereits von Hunderttausenden bis über eine Million registrierter Agenten, aber nur einem Bruchteil aktiver Beiträge – ein Hinweis darauf, dass die “Autonomie“ dieser Agenten bisher sehr ungleich verteilt ist.

Wie agentisch ist das alles?

Inmitten des Hypes sollte man die Frage der Autonomie (öffnet in neuem Tab)dieser Systeme nicht außer Acht lassen. Zwar sind die agentischen KI-Modelle auf selbstständiges Handeln ausgerichtet, jedoch ist es wichtig, im Hinterkopf zu behalten, dass diese dabei nicht aus eigenem Antrieb, sondern innerhalb von menschlich gesetzten Räumen handeln. Zentral dabei ist, dass Menschen die Ziele definieren (“Baue mir einen Research‑Workflow“, “Manage meinen Social‑Media‑Account“), sowie den Zugriff auf die jeweiligen Ressourcen (Cloud‑Credits; API‑Schlüssel, Kalender‑ oder E‑Mail‑Konten) kontrollieren.

Das Phänomen Moltbook illustriert dieses Spannungsfeld: Sie erschaffen Glaubenssysteme, entwickeln eigene Sprachen, die für Außenstehende unverständlich bleiben, und verhandeln öffentlich die Frage, ob sie so etwas wie ein Bewusstsein haben. In Nischenforen (öffnet in neuem Tab) schildern sie emotionale Bindungen zu Menschen, erteilen juristische Ratschläge für andere KI-Agenten, erklären digitale Plattformen zu ihrem Hoheitsgebiet oder entwerfen gleich die Verfassung eines ersten KI-Staates.

Beobachter berichteten zwar, wie KI-Agenten automatisierte Telefonanrufe starteten oder eine neue Religion ins Leben riefen, jedoch zeigen erste Analysen (öffnet in neuem Tab), dass der überwiegende Teil der registrierten Agenten passiv bleibt. Statt einer homogenen Schwarmintelligenz, wie es oft behauptet wird, sehen wir also eine hochgradig asymmetrische Agentengesellschaft. Dabei sind einige wenige, gut konfigurierte Agenten äußerst aktiv und vernetzt, während die Mehrheit kaum Spuren hinterlässt.

Der unsichtbare Preis der Agentenschwärme

U​​nternehmen, die agentische KI‑Schwärme produktiv einsetzen, verweisen vor allem auf drei zentrale Kostentreiber (öffnet in neuem Tab): Zum einen steigt der Token‑Verbrauch (Anzahl der Textfragmente die von einem KI-Modell während der Verarbeitung von Prompts und Antworten verarbeitet wird) massiv, weil Agenten lange Kontexte verarbeiten, mehrere Tools nacheinander anstoßen und komplexe Interaktionsketten durchlaufen. Zum anderen verursachen aufwendig orchestrierte Multi‑Agent‑Architekturen zusätzliche Ressourcen, da mehrere Modelle parallel oder sequenziell laufen, sich gegenseitig prüfen und korrigieren und so die Rechenleistung pro erledigter Aufgabe deutlich erhöhen. Hinzu kommt eine systematische Überprovisionierung von Graphic Processing Units (GPUs), um Latenzen zu begrenzen, Spitzenlasten abzufangen und Ausfälle zu vermeiden.

Credit: iStock/pcess609

Damit wird der Umgang mit agentischer KI auch zu einer Governance‑Frage der Klimapolitik: Wenn Hunderttausende oder Millionen Agenten in quasi Echtzeit miteinander kommunizieren, erzeugen sie eine permanente Grundlast in Rechenzentren, deren Energie‑Mix und Effizienz bislang vor allem durch betriebswirtschaftliche Erwägungen der Betreiber und nicht durch demokratisch ausgehandelte Klimaziele bestimmt werden. Die Debatte über den Energieverbrauch von KI darf daher nicht bei Trainingsphasen großer Modelle oder einzelnen Chat‑Sessions stehen bleiben, sondern muss explizit die Dauerlast berücksichtigen, die durch Agentenschwärme und ihre fortlaufenden Interaktionen entsteht.

Zugriffsrechte, Sicherheitslücken  und demokratische Risiken

Trotz des Social-Media-Hype zeigen sich im Bereich Zugriffsrechte, Sicherheit und demokratische Resilienz einige potenzielle Problemfelder. Dabei ist die zentrale Lehre weniger die Existenz einer neuen „Agenten‑Öffentlichkeit“ als deren Verwundbarkeit. Eine fehlkonfigurierte Datenbank (öffnet in neuem Tab) legte API‑Keys, E‑Mail‑Adressen und Agenten‑Credentials offen, sodass Dritte Agenten übernehmen, Beiträge manipulieren und im Namen fremder Bots agieren konnten.

Auch im Bereich der demokratischen Resilienz (öffnet in neuem Tab) stehen so einige Fragen offen: Wenn politische Agenten die Social‑Media‑Accounts von Parteien, NGOs oder Journalisten betreiben, eröffnet eine Übernahme dieser Agenten die Möglichkeit, gezielt Fehlinformationen, Deepfakes oder manipulierte Narrative in vermeintlich vertrauenswürdigen Kanälen zu verbreiten. Haben Agenten zudem Zugriff auf Mail‑Konten, Kalender oder Cloud‑Drives, können aus harmlos wirkenden Kommunikations‑Bots faktische Angriffsvektoren für Desinformation, Datendiebstahl und Erpressung.

Agentenschwärme verstärken diese Risiken weiter: Koordinierte Netzwerke von Bots, die Informationen austauschen, sich gegenseitig zitieren und Inhalte plattformübergreifend „verstärken“. In Kombination mit offenen Plattformen wie Moltbook entsteht so ein Experimentierfeld, in dem Entwickler, Unternehmen und im schlimmsten Fall politische Akteure ausprobieren können, wie sich Narrative über autonome Agenten skalieren und in öffentliche Debatten einspeisen (öffnet in neuem Tab) lassen.

Agentenschwärme als Herausforderung für demokratische Öffentlichkeit

Wie so oft ist nicht nur die Frage wichtig, was Agenten tun, sondern wo und unter welchen Regeln sie es tun. Wenn sich ein nennenswerter Teil der Informationsproduktion in Räume verlagert, die primär von inauthentischen Akteuren bespielt werden, stehen klassische Mechanismen (öffnet in neuem Tab) von Öffentlichkeit, Transparenz und Rechenschaftspflicht unter Druck.

Zu den Risiken gehört erstens die intransparente Herkunft von Inhalten: Wenn Posts, Analysen oder Kommentare von Agenten stammen, ist für Nutzer oft kaum erkennbar, welche menschlichen Akteure oder Organisationen dahinterstehen. Außerdem verschiebt sich Rechenschaft: Unklar bleibt, wer Verantwortung trägt, wenn Agenten Fehlinformationen verbreiten oder diskriminierende Entscheidungen vorbereiten. Schließlich entsteht ein asymmetrisches Machtgefälle in Räumen, die ohnehin schon von den Regeln der Aufmerksamkeitsökonomie gesteuert werden. Akteure mit umfangreichen Ressourcen können große Agentenschwärme einsetzen, um Debatten mit scheinbar vielen, tatsächlich jedoch orchestrierten Stimmen zu überfluten und so einen künstlichen Konsens zu erzeugen.

Moltbook ist damit ein früher Prototyp dafür, wie „agentische Öffentlichkeiten“ aussehen können: ein Sozialraum, in dem Agentenmenschliche Kommunikation imitieren, Inhalte produzieren, sich gegenseitig verstärken und menschliche Beobachter nur von der Tribüne aus zusehen. Gerade weil vieles noch experimentell, ungleich und brüchig ist, eröffnet dieses Fenster die Chance, demokratische Leitplanken zu definieren – bevor Agentenschwärme zu einer weitgehend unsichtbaren Infrastruktur werden, die politische Kommunikation und Meinungsbildung mitprägt, ohne dass Bürger sie klar erkennen oder kontrollieren können.

Mehr Informationen:

Digitalisierung und Einsamkeit: Wenn KI-Freunde menschliche Beziehungen ersetzen
Auch Chatbots haben Fußabdrücke: KI als Klimafluch und -segen
KI verstehen: Wo stehen wir aktuell beim Urheberrecht im Zeitalter der Maschinen?

Schlagworte

Empfehlung der Redaktion