Vom statistischen Papagei zur verstehenden AI
Stell dir vor, du hast einen super schlauen Papagei. Der kann tausende Sätze nachplappern und sogar neue Sätze bilden, die richtig gut klingen! Aber versteht der Papagei wirklich, was er sagt? Nein! Er hat nur gelernt, welche Wörter oft zusammen vorkommen.
Vom statistischen Papagei zur verstehenden AI
HUFi.AI präsentiert: Warum deine KI nicht wirklich denkt – und wie wir mit Collective Context (CC) 2026 der KI Flügel verleihen.
Aktualisiert: Februar 2026 — Völlig überarbeitet auf Basis von ZED Editor + Agent Client Protocol (ACP). Unsere Collective Context (CC) Vision ist unverändert. Die technische Umsetzung hat einen Quantensprung gemacht.
👣 Step 1: Erkläre es mir einfach, als wäre ich Fünf
Stell dir vor, du hast einen super schlauen Papagei. Der kann tausende Sätze nachplappern und sogar neue Sätze bilden, die richtig gut klingen! Aber versteht der Papagei wirklich, was er sagt? Nein! Er hat nur gelernt, welche Wörter oft zusammen vorkommen.
Genau so funktionieren heute alle KI-Systeme wie ChatGPT, Claude oder Gemini: Sie sind hochentwickelte Wahrscheinlichkeitsmaschinen. Sie raten, welches Wort als nächstes kommen könnte, basierend auf Billionen von Beispielen. Manchmal klingt das brillant — manchmal erzählen sie totalen Unsinn. Weil sie eben nicht wirklich denken.
Doch es kommt noch sehr viel schlimmer. Wenn der Papagei (oder die KI) sagt, sorry für den Fehler, ich werde ihn nicht wiederholen, lügt er/sie einfach. Warum? Weil sich die KI nichts merken kann, aus eurem Gespräch. Wenn du eine neue Session startest, kann er/sie sich an nichts mehr erinnern, was ihr schon besprochen habt!
Aber jetzt hat sich etwas Entscheidendes verändert:
Stell dir vor, du gibst dem Papagei ein Notizbuch, das er vor jedem Gespräch lesen muss. Darin steht alles, was er über euer Projekt wissen muss: Was wurde entschieden, welche Fehler er nicht wiederholen soll, wie das Team arbeitet. Und das Beste: Dieses Notizbuch ist für alle Papageien sichtbar — nicht nur für einen.
Collective Context (CC) ist das Zauberwort. Dieses gemeinsame Gedächtnis - das alle miteinander teilen - die KI Sprachmodelle und die Menschen. Wir zeigen dir, wie du den Großteil deiner Arbeit automatisieren kannst.
👣 Step 2: Für Eltern & Großeltern
Du nutzt täglich KI — in der Google-Suche, bei Übersetzungen, in Sprachassistenten. Aber hast du dich schon mal gewundert, warum die KI manchmal völligen Unsinn erzählt? Oder warum sie bei der gleichen Frage heute etwas anderes antwortet als gestern?
Das Kernproblem: KI-Modelle haben kein Gedächtnis zwischen Gesprächen. Jede Session startet bei null. Es ist, als würdest du jeden Morgen deinen besten Mitarbeiter neu einstellen — er erinnert sich an nichts, kennt keinen Kontext, macht dieselben Fehler wieder.
Collective Context ändert das fundamental. Statt jedem KI-Modell beim Start alles neu zu erklären, schreiben wir alles Wichtige in Collective Context (CC) Dateien — und jede KI liest sie automatisch beim Start.
Das klingt simpel. Die Wirkung ist revolutionär.
Inzwischen gibt es auch für professionelle Programmierer dafür den perfekten Mechanismus: Der Open Source ZED Editor (ein modernes Code-Entwicklungswerkzeug) und das Open Source Agent Client Protocol (ACP) sorgen dafür, dass verschiedene KI-Systeme — Claude von Anthropic, Gemini von Google, lokale Modelle auf deinem eigenen Computer — alle dieselbe Wissensbasis teilen. Wie ein eingespieltes Team, das denselben Projektordner liest.
👣 Step 3: Power-User & Studierende
Du arbeitest mit GitHub Copilot, nutzt Claude für deine Projekte oder experimentierst mit lokalen Modellen? Dann kennst du das "Groundhog Day Phänomen": Die KI vergisst den Kontext, wiederholt dieselben Fehler, halluziniert APIs die es nicht gibt, und jede neue Session fühlt sich an wie der Tag zuvor.
Das Problem ist systemisch: LLMs sind zustandslose Funktionen. Jeder Aufruf ist unabhängig. RAG (Retrieval-Augmented Generation) hilft nur bedingt — es ist wie mehr Bücher in die Bibliothek zu stellen, ohne dem Bibliothekar beizubringen, welche davon relevant sind.
Die Lösung: CLAUDE.md als Collective Context
projekt/
├── CLAUDE.md ← Automatisch in JEDE Session aller Agenten geladen
├── AGENTS.md ← Kompatibel: Gemini CLI, Codex, OpenCode, Ollama
└── postbox/
├── todo.md ← Offene Tasks (gemeinsamer Shared State)
└── done.md ← Erledigte Tasks mit Commit-Referenzen
CLAUDE.md ist das Teamgedächtnis für Claude LLMs — und es funktioniert sofort, kostet nichts, und ist in jedem Git-Repo versioniert. Boris Cherny, der Erfinder von Claude Code bei Anthropic, beschreibt es so:
„Jedes Mal, wenn wir sehen, dass Claude etwas falsch macht, fügen wir es zu CLAUDE.md hinzu, damit Claude weiß, dass er es beim nächsten Mal nicht tun soll. Jeder Fehler wird zu einer Regel."
Das KAIZEN-Prinzip für KI: Jeder Fehler wird zur Regel. Das System wird mit der Zeit präziser, ohne dass größere Modelle nötig sind.
ZED + ACP: Der Multiplier
Der ZED Editor liest CLAUDE.md und AGENTS.md automatisch in jede Agenten-Session — egal ob Claude Code Tab, Gemini CLI oder Codex. Das Open Source Agent Client Protocol (ACP) ist der offene Standard dahinter: Er verbindet jeden Agenten mit jedem Editor, ohne proprietären Lock-in.
ZED Agent Panel
├── Claude Code Tab ← liest CLAUDE.md automatisch
├── Gemini CLI ← liest AGENTS.md automatisch
└── Lokale Ollama ← via Script-Ausführung
↕
Dasselbe Dateisystem. Derselbe Kontext.
Drei verschiedene KI-Modelle. Ein gemeinsames Gedächtnis. Ohne tmux. Ohne Shell-Skripte. Ohne manuelle Session-Verwaltung.
👣 Step 4: Softwareentwickler
Als Developer kennst du die Frustration: Die stärksten LLMs — Claude, Gemini, GPT — verlieren nach einigen Hundert Zeilen den Überblick. Sie preschen fünf Schritte vor und gehen sechs zurück. Das Context Window Problem ist real — aber es ist nur ein Symptom.
Das eigentliche Problem: Jede LLM-Session startet bei null. Es gibt keinen gemeinsamen State zwischen verschiedenen Agenten, Tools und Sessions.
Inzwischen hat sich die Architektur fundamental weiter entwickelt.
Agent Client Protocol (ACP) — Das LSP für AI-Agenten
Open Source Zed Industries hat mit ACP dasselbe getan, was Microsofts Language Server Protocol für Sprachunterstützung in Editoren getan hat: Den Standard geöffnet.
Ohne ACP (bis 2025): Mit ACP (ab 2026):
─────────────────── ─────────────────────────────
ZED ←→ Claude (proprietär) ZED ←→ ACP ←→ Claude Code
tmux ←→ Aider (Open Source) ZED ←→ ACP ←→ Gemini CLI
jedes Tool: eigenes Glue ZED ←→ ACP ←→ Codex
ZED ←→ ACP ←→ Ollama Adapter
ZED ←→ ACP ←→ [jeder neue Agent]
Ein offener Standard. Apache 2.0. Einmal gebaut — überall verfügbar.
Der ZED Claude Code Tab — Referenz-Implementierung
Der ZED Claude Code Tab (Claude Max = Flat Rate, direkt in ZED integriert) ist eine konkrete Umsetzung des Collective Context (CC) Prinzips:
# Setup in 60 Sekunden
# 1. ZED installieren: https://zed.dev/download
# 2. Agent Panel: Ctrl+?
# 3. + → "Claude Agent" (aus ACP Registry)
# 4. /login → OAuth mit Claude Max Abo
# Fertig. Kein ANTHROPIC_API_KEY. Kein Token-Pricing.
| Feature | Claude Code Web | ZED Claude Code Tab |
|---|---|---|
| Kosten | Claude Max (Flat) | Claude Max (Flat) |
| Filesystem | ❌ copy-paste | ✅ direkt |
| Diffs | Im Browser | ✅ inline im Editor |
| @file Kontext | ❌ | ✅ |
| Playwright lokal | ❌ | ✅ |
| Ollama (indirekt) | ❌ | ✅ via Script |
| CLAUDE.md Auto-Load | ✅ | ✅ |
Der entscheidende Vorteil: Wenn der ZED Claude Code Tab ein Script ausführt (python smart_extractor.py), und dieses Script intern Ollama aufruft, dann läuft Ollama lokal — ohne API-Kosten, ohne Datenschutzrisiko. ZED orchestriert das nur auf deiner Workstation.
Der Dual-Agent Workflow — Success Story
Dieser Workflow ist dokumentiert und produktiv getestet:
Gemini CLI (Scanner-Agent) Claude Code Tab (Fixer-Agent)
────────────────────────── ──────────────────────────────
Scannt kontinuierlich Codebase Monitort postbox/todo.md
↓ ↓
Schreibt Findings → todo.md Übernimmt Tasks → fixiert Code
↓ ↓
"Never stop scanning. Never solve."Committed + verschiebt → done.md
Shared State: Dasselbe Dateisystem. Kein API-Overhead. Kein State-Management-Code. Separation of Concerns durch Dateisystem statt durch komplexe Agent-Kommunikation.
Praktische Kosten-Architektur
Aufgabe Tool Kosten
──────────────────────────────────────────────────────────────────
Architektur, Greenfield-Code Claude Code Web Flat (Max)
Komplexe Recode-Tasks im Editor ZED Claude Code Tab Flat (Max)
Code lesen, Fixes, Git ZED + Grok 4.1 Fast $0.003/Session
Code generieren ZED + Gemini 3 Flash $0.011/Session
Credentials-sichere Tasks ZED + Ollama lokal Hardware/Strom
──────────────────────────────────────────────────────────────────
Die teuren Flat-Rate-Ressourcen übernehmen die kognitiv anspruchsvollen Tasks. Die günstigen/lokalen Ressourcen die repetitiven Volumen-Tasks. Das ist ökonomisch sauber — und das ist Collective Context (CC) in der Praxis.
Aktuelle Limitierungen (Stand Feb 2026)
Wir entwickeln unsere Systeme ständig weiter. Was noch fehlt oder in Entwicklung ist:
- Kein Context-Window-Indicator im ZED ACP Agent Panel (GitHub Discussion #49472, 18. Feb 2026) — Workaround:
/compactaufrufen oder Handover-Dokument schreiben - Claude Code Tab und Claude Code Web teilen keine Session-History — getrennte Instanzen
- Agent Teams (mehrere Claude-Subagenten in einer Session) noch nicht im ZED Tab unterstützt
- Kein
/compactals Slash-Command via ACP verfügbar
👣 Step 5: INSIDE — Freelancer & Business
Du willst nicht nur Tools nutzen, sondern das nächste große Ding bauen? Hier ist deine Chance.
Das Paradigma hat sich verschoben.
Bis 2025 war die Frage: "Welches KI-Modell ist das beste?" Heute lautet sie: "Wie orchestrierst du mehrere spezialisierte Modelle mit Collective Context?"
Anthropics Boris Cherny, der Erfinder von Claude Code, betreibt 5 parallele Agenten in seiner täglichen Arbeit — Claude für Architektur, Gemini für Dokumentation, Codex für Tests. Der Unterschied zu einem Einzelentwickler ohne KI? Er liefert mit der Produktivität eines kleinen Teams.
Der echte Wettbewerbsvorteil: ACP als offener Standard
ACP ist Apache 2.0. Kein Vendor Lock-in. Das bedeutet:
- Kein Risiko: Wenn Anthropic die Preise erhöht, wechselst du das Modell — die Infrastruktur bleibt.
- Maximale Flexibilität: Heute Claude Max, morgen Grok, übermorgen lokales Llama — selbe Umgebung.
- Eigene Agenten: ACP ermöglicht es, eigene spezialisierte Agenten zu bauen und sie in ZED zu integrieren.

Das Collective Context (CC) Ökosystem 2026
collective-context.org
├── Konzept: CLAUDE.md als Shared Context
├── Implementierung: ZED + ACP
├── Referenz: ZED Claude Code Tab (Claude Max)
├── Pattern: Dual-Agent (Gemini + Claude)
└── Community: Apache 2.0, GitHub
Drei Ebenen der Wertschöpfung:
- Entwickler-Produktivität: 1 Entwickler mit coordinierten Multi-Agent-Setup leistet 3–5×
- Wissensakkumulation: CLAUDE.md wächst mit — jeder Fehler wird zur Regel, das Team-IQ steigt kontinuierlich
- Technologie-Souveränität: Open Source Stack, lokal ausführbar, keine Cloud-Abhängigkeit
Business-Opportunities im ACP-Ökosystem:
- Consulting: "ACP-Ready" KI-Setup für Entwickler-Teams
- Spezialisierte Agenten: Branchen-spezifische CLAUDE.md Templates (Legal, FinTech, Healthcare)
- Tooling: ACP-Adapter für bestehende Enterprise-Tools
- Training: Die Lernkurve von ZED + ACP ist real — wer sie kennt, hat einen Vorsprung
Der Clou: Während alle auf größere Modelle warten (GPT-6, Claude 5), setzt Collective Context (CC) auf besseren Kontext. Günstiger, reproduzierbarer, vertrauenswürdiger. Der Papagei braucht keine bessere Lunge — er braucht ein besseres Notizbuch.
Das Fazit: Von zustandslosen Pattern-Machern zu kontextuellen Systemen
Der "statistische Papagei" ist immer noch eine gültige Metapher. Was sich geändert hat: Wir haben jetzt das konkrete Werkzeug, das die Leitplanken baut.
CLAUDE.md + ZED + ACP = Collective Context (CC) in der Praxis.
Nicht als abstraktes Architekturkonzept. Sondern als Ctrl+? im Editor, als 60-Sekunden-Setup, als täglich genutzter Workflow von tausenden Entwicklern weltweit.
Constraints sind keine Fesseln, sondern Flügel — die der KI erlauben, von einer zustandslosen Session zu einem akkumulierenden Systemgedächtnis zu werden.
Die Zukunft gehört nicht den größten Modellen, sondern den klügsten Systemen. Und Klugheit entsteht nicht durch mehr Parameter — sondern durch geteilten Kontext.
Wo KI orchestriert und der Mensch den Kontext setzt 🌍✨
Bereit loszulegen? → collective-context.org für die ständig sich erweiternde Dokumentation zu Collective Context (CC) + ZED + ACP.
GitHub: github.com/collective-context
Remember: In Context We Trust. Everything Else We Verify. 🚀