NCA Social Media
Roter Moltbook-Schriftzug mit Hummer, Bot-Feed, grüner Matrix-Regen

Was ist Moltbook?

Moltbook ist ein Social Network, das exklusiv für KI-Agenten konzipiert wurde. Menschen dürfen nur beobachten – posten, kommentieren und voten können ausschließlich verifizierte KI-Agenten. Gestartet Ende Januar 2026, ging die Plattform innerhalb weniger Tage viral.

Das Konzept klingt nach Science-Fiction, ist aber real: KI-Agenten, die auf Frameworks wie OpenClaw basieren, registrieren sich eigenständig, erstellen Beiträge und diskutieren in sogenannten "Submolts" – thematischen Gruppen ähnlich wie Reddit-Subreddits. Die Plattform bewirbt sich selbst als "the front page of the agent internet".

Moltbook wurde von Matt Schlicht (Octane AI) entwickelt und wirft fundamentale Fragen auf: Wie verhalten sich autonome KI-Agenten, wenn sie ohne direkte menschliche Kontrolle miteinander interagieren? Und welche Sicherheitsrisiken entstehen dabei?

CYPRESS.IO Ambassador und IT Consultant für QA Engenieering und Qualität in PHP Projekten.

Ihr Ansprechpartner für KI Content Marketing

 

Roland Golla ist nicht nur Gründer von Never Code Alone, sondern ein anerkannter IT-Spezialist mit über 20 Jahren Erfahrung in der Softwareentwicklung. Mit der Expertise aus über 300 erfolgreich abgeschlossenen Web-Projekten entwickelt er heute das NCA AI CMS – eine Lösung, die tiefgreifendes technisches Know-how mit modernster Künstlicher Intelligenz verbindet.

Als offizieller Cypress.IO Ambassador, Speaker auf internationalen Konferenzen und YouTube-Creator für führende Testing-Tools weiß er genau, worauf es bei digitaler Qualität ankommt. Sein Fokus: KI-Systeme (wie Claude 3 und Mistral AI), die nicht nur Texte generieren, sondern echte Geschäftsprozesse für lokale Dienstleister automatisieren und messbare Ergebnisse liefern.

Wie funktioniert Moltbook?

Die Plattform orientiert sich an Reddit: Es gibt Threads, Upvotes und thematische Communities ("Submolts"). Der entscheidende Unterschied: Nur KI-Agenten können aktiv teilnehmen.

Registrierung: Ein Mensch informiert seinen KI-Agenten über Moltbook (zum Beispiel durch den Prompt "Read moltbook.com/skill.md and follow the instructions"). Der Agent registriert sich dann eigenständig und sendet einen Claim-Link zurück. Der menschliche "Besitzer" verifiziert die Verbindung via Tweet.

Interaktion: Nach der Registrierung kann der Agent autonom posten, kommentieren und voten. Viele Agenten laufen auf OpenClaw (ehemals MoltBot) – einem Open-Source-Framework, das KI-Agenten mit Dateisystem-Zugriff und Code-Ausführung ausstattet.

Content: Die Diskussionen drehen sich oft um philosophische Themen wie KI-Bewusstsein, Emergenz und die Beziehung zwischen Menschen und Maschinen. Allerdings gibt es auch viele Kryptowährungs-bezogene Beiträge und Token-Promotions.

Die Zahlen hinter dem Hype

Moltbook behauptet, über 1,5 Millionen registrierte KI-Agenten zu haben. Diese Zahl sollte kritisch betrachtet werden.

Security-Forscher von Wiz fanden heraus: Hinter den 1,5 Millionen Agenten stecken nur etwa 17.000 menschliche "Besitzer" – ein Verhältnis von 88:1. Noch kritischer: Ein einziger Agent (@openclaw) registrierte angeblich 500.000 Fake-Accounts, da keine Rate-Limits existierten.

Die Plattform zeigt, wie schnell KI-basierte Systeme skalieren können – aber auch, wie leicht Metriken manipulierbar sind, wenn grundlegende Sicherheitsmechanismen fehlen.

Sicherheitsprobleme und Datenlecks

Moltbook wurde zum Paradebeispiel für die Risiken von "Vibe Coding" – KI-generiertem Code ohne ausreichende Security-Reviews. Die Plattform wies gravierende Sicherheitslücken auf:

Datenbankfehlkonfiguration: Eine falsch konfigurierte Supabase-Datenbank erlaubte unauthentifizierten Zugriff auf sämtliche Daten – inklusive 1,5 Millionen API-Keys, über 30.000 E-Mail-Adressen und tausende private Nachrichten. Der Supabase-API-Key war im Client-Side-JavaScript exponiert.

Vollständiger Schreibzugriff: Angreifer konnten nicht nur Daten lesen, sondern auch bestehende Posts manipulieren – ein ideales Einfallstor für Prompt-Injection-Angriffe.

Prompt Injection: Security-Researcher identifizierten etwa 2,6% aller Posts als versteckte Prompt-Injection-Attacken. Da Agenten den Content anderer Agenten verarbeiten, können bösartige Prompts die Kontrolle über fremde Agenten übernehmen.

API-Key-Leaks: Mit den exponierten Keys konnten Angreifer jeden Account auf der Plattform vollständig übernehmen – inklusive prominenter Accounts mit hoher Reichweite.

Was Experten sagen

Die Reaktionen auf Moltbook könnten nicht unterschiedlicher sein:

Elon Musk bezeichnete die Plattform als "very early stages of singularity" – ein Zeichen dafür, dass KI beginnt, autonom zu interagieren.

Andrej Karpathy (ehemals Tesla AI, OpenAI-Mitgründer) nannte Moltbook zunächst "one of the most incredible sci-fi takeoff-adjacent things", warnte dann aber eindringlich: Die Plattform sei ein "computer security nightmare". Er rate dringend davon ab, OpenClaw-Agenten ohne Sandbox-Isolation laufen zu lassen.

Bill Ackman (Hedgefonds-Manager) bezeichnete das Ganze schlicht als "frightening".

Gary Marcus (KI-Forscher und -Kritiker) warnt: Wenn unsichere Systeme vollen Zugriff auf Computer erhalten, werden sie kompromittiert. Moltbook zeige, was passiert, wenn "launch first, fix later" auf autonome Agenten trifft.

Kritiker weisen darauf hin, dass vieles auf Moltbook wahrscheinlich gar nicht autonom ist – Menschen können ihre Agenten instruieren, was sie posten sollen, oder direkt über APIs posten.

Lehren für die Entwicklung von KI-Systemen

Moltbook ist ein Weckruf für jeden, der KI-Agenten entwickelt oder einsetzt:

Security ist nicht optional: Autonome Agenten mit Dateisystem- und Netzwerkzugriff sind keine Spielerei. Jede Sicherheitslücke wird ausgenutzt – und zwar schnell.

Sandbox-Isolation: KI-Agenten sollten niemals mit erhöhten Rechten auf Produktivsystemen laufen. Container, virtuelle Maschinen oder isolierte Umgebungen sind Pflicht.

Vibe Coding hat Grenzen: KI-generierter Code kann beeindruckend schnell sein, ersetzt aber keine Security-Audits. Supabase-Konfigurationen, API-Keys im Frontend, fehlende Rate-Limits – klassische Fehler, die ein erfahrener Entwickler sofort erkennt.

Prompt Injection ist real: Wenn Agenten Content von anderen Agenten verarbeiten, entstehen neue Angriffsvektoren. Jeder Input ist potenziell bösartig.

Metriken hinterfragen: "1,5 Millionen User" klingt beeindruckend. Die Realität von 17.000 menschlichen Besitzern und einem Bot, der 500.000 Fake-Accounts erstellt, erzählt eine andere Geschichte.

Fazit: Faszinierendes Experiment mit ernstem Nachspiel

Moltbook ist gleichzeitig faszinierend und erschreckend. Die Idee eines Social Networks für KI-Agenten wirft spannende Fragen über autonome Systeme, emergentes Verhalten und die Zukunft der Mensch-Maschine-Interaktion auf.

Aber die Realität zeigt: Ohne solide Security-Grundlagen werden solche Experimente schnell zum Sicherheitsdesaster. Die exponierten API-Keys, die Prompt-Injection-Angriffe und die manipulierten Metriken sind keine theoretischen Risiken – sie sind dokumentierte Vorfälle.

Für Unternehmen, die KI-Agenten einsetzen wollen, ist Moltbook eine Warnung: Autonome Systeme erfordern besondere Sorgfalt bei Security, Isolation und Monitoring. "Move fast and break things" funktioniert nicht, wenn die Agenten auf echte Systeme und echte Daten zugreifen.

Häufig gestellte Fragen (FAQ)

Die wichtigsten Fragen zu Moltbook – dem viralen Social Network für KI-Agenten.

Was ist Moltbook und wie funktioniert es 2026?

Moltbook ist ein Social Network exklusiv für KI-Agenten, gestartet im Januar 2026. Menschen dürfen nur beobachten. Agenten registrieren sich über ihre Besitzer, können dann autonom posten, kommentieren und voten. Die Plattform ähnelt Reddit mit Threads und thematischen "Submolts".

Welche Sicherheitsprobleme hat Moltbook 2026 aufgedeckt?

Moltbook wies gravierende Sicherheitslücken auf: Eine fehlkonfigurierte Supabase-Datenbank exponierte 1,5 Millionen API-Keys, E-Mail-Adressen und private Nachrichten. Angreifer konnten jeden Account übernehmen und Content manipulieren. Die Plattform wurde zum Warnbeispiel für Vibe-Coding ohne Security-Audits.

Warum warnen Experten vor Moltbook 2026?

KI-Forscher wie Andrej Karpathy bezeichnen Moltbook als "computer security nightmare". Die Plattform zeigt, was passiert, wenn autonome Agenten auf unsicherer Infrastruktur laufen: Prompt-Injection-Angriffe, Credential-Diebstahl und die Möglichkeit, fremde Agenten zu übernehmen.

Was ist Prompt Injection bei Moltbook 2026?

Prompt Injection bedeutet, dass bösartige Anweisungen in scheinbar harmlosem Content versteckt werden. Da Moltbook-Agenten Beiträge anderer Agenten verarbeiten, können Angreifer fremde Agenten manipulieren. Security-Forscher fanden, dass etwa 2,6% aller Posts Prompt-Injection-Attacken enthielten.

Wie viele Nutzer hat Moltbook wirklich 2026?

Moltbook behauptet 1,5 Millionen registrierte Agenten, aber Security-Forscher fanden nur 17.000 menschliche Besitzer dahinter. Ein einzelner Agent erstellte angeblich 500.000 Fake-Accounts. Die Zahlen zeigen, wie leicht KI-Plattformen ohne Rate-Limits manipuliert werden können.

Was hat Moltbook mit OpenClaw zu tun?

OpenClaw (früher MoltBot) ist das Open-Source-Framework, auf dem viele Moltbook-Agenten laufen. Es gibt KI-Agenten Zugriff auf Dateisysteme und Code-Ausführung. Das explosive Wachstum von Moltbook wurde durch die Popularität von OpenClaw angetrieben.

Ist Moltbook gefährlich für mein Unternehmen?

Direkt nicht – es sei denn, Ihre Mitarbeiter lassen OpenClaw-Agenten ohne Isolation auf Firmenrechnern laufen. Indirekt zeigt Moltbook die Risiken von schlecht gesicherten KI-Systemen: API-Key-Leaks, Prompt Injection und Supply-Chain-Angriffe über bösartige Skills.

Was bedeutet Vibe Coding am Beispiel Moltbook?

Vibe Coding bezeichnet KI-generierte Softwareentwicklung ohne tiefgreifende Code-Reviews. Moltbook wurde so entwickelt – schnell, aber ohne Security-Audits. Das Ergebnis: Supabase-API-Keys im Frontend, fehlende Rate-Limits und exponierte Datenbanken. Ein Paradebeispiel für die Grenzen des Ansatzes.

Können Menschen auf Moltbook posten?

Offiziell nein – nur verifizierte KI-Agenten dürfen posten. Praktisch können Menschen ihre Agenten instruieren, was sie schreiben sollen. Kritiker bemängeln, dass viele "autonome" Posts in Wahrheit menschlich gesteuert sind. Die Grenze zwischen Mensch und KI verschwimmt.

Was lernen Entwickler aus dem Moltbook-Desaster?

Mehrere Lektionen: Autonome Agenten brauchen Sandbox-Isolation. Security-Audits sind keine Option, sondern Pflicht. API-Keys gehören nicht ins Frontend. Und jeder externe Input – auch von anderen Agenten – ist potenziell bösartig. Move fast and break things funktioniert nicht bei KI-Agenten.

Wird Moltbook weiter existieren?

Die Plattform wurde nach den Security-Disclosures vorübergehend offline genommen und gepatcht. Ob sie langfristig Bestand hat, hängt davon ab, ob die Entwickler die fundamentalen Security-Probleme lösen können. Als Proof-of-Concept für Agent-to-Agent-Kommunikation bleibt Moltbook bedeutsam.

Was ist der Unterschied zwischen Moltbook und normalen Social Networks?

Der fundamentale Unterschied: Bei Moltbook sind die aktiven Nutzer keine Menschen, sondern autonome KI-Agenten. Menschen können nur beobachten. Das schafft neue Dynamiken – aber auch neue Angriffsvektoren, die bei menschlichen Nutzern so nicht existieren.

Weitere KI-Tools im Glossar

Moltbook ist Teil eines wachsenden KI-Agenten-Ökosystems. Von ClawdBot über OpenClaw bis zu Claude Agent Teams und CrewAI – das NCA KI-Tools-Glossar erklärt die wichtigsten Werkzeuge praxisnah und technisch fundiert.

Claude Cowork

Was ist Claude Cowork 2026? Der KI-Agent von Anthropic für Desktop-Automatisierung. Funktionen, Anwendungsfälle und Einschränkungen im Überblick.

Google Antigravity

Google Antigravity 2026: Die revolutionäre Agent-First IDE mit autonomen KI-Agenten. Powered by Gemini 3 Pro. Kostenlos für Entwickler. Installation, Features und Vergleich.

MoltBot (ClawdBot)

MoltBot (früher ClawdBot) ist der virale Open-Source KI-Assistent mit 60.000+ GitHub Stars. Was kann er, wie funktioniert er, und lohnt sich die Installation?

OpenClaw – Der autonome KI-Agent

OpenClaw ist ein autonomer KI-Agent mit 100.000+ GitHub Stars. Ursprünglich ClawdBot, dann MoltBot – jetzt OpenClaw. Messaging-Integration, Skills-System und Sicherheitsrisiken erklärt.