Tokeneffizienz ohne Strukturverlust
TOON fasst sich wiederholende JSON-Schlüssel zu tabellarischen Blöcken zusammen. Weniger Token bedeuten günstigere API-Calls, schnellere Antworten und Payloads, die in enge Kontextfenster passen. Anders als binäre Formate bleibt TOON menschenlesbar, sodass Prompt-Teams im selben View debuggen, den auch das LLM sieht.
Wo TOON JSON übertrumpft
- Katalogartige Arrays (Produktfeeds, Moderations-Queues, Telemetriedaten)
- Richtlinien, die Prosa mit strukturierten Ausnahmen mischen
- Mehrturn-Transkripte, in denen sich Schlüssel ständig wiederholen
- Streaming-Analysen für Security- oder Compliance-Teams
Betriebsgewinne für Infra- und Sicherheitsteams
('Red-Teaming und Policy-Reviewer lesen Zeile für Zeile. TOON behält sinnvolle Einrückungen, zeigt Arrays als Tabellen und entfernt das Anführungszeichenrauschen aus JSON. Da TOON verlustfrei ist, kannst du intern weiter JSON ausgeben und extern TOON — der Konverter validiert beide Richtungen.',)
TOON vs. JSON in der Praxis
JSON (92 Tokens)
{
"incidents": [
{"id": 42, "severity": "medium", "tag": "prompt_injection"},
{"id": 43, "severity": "low", "tag": "spam"}
]
}
Konvertiertes TOON
TOON (55 Tokens)
incidents[2]{id,severity,tag}:
42,medium,prompt_injection
43,low,spam
Rollout-Checkliste
- Hänge /api/convert an ein internes Servicekonto
- Spiegle JSON-Strukturen und vergleiche Ausgaben in CI
- Validiere ausgehende Payloads über /api/validate
- Gib die TOON-Ansicht an Policy-, Support- und Ops-Teams weiter
Fazit
Teams, die TOON einsetzen, gewinnen 30–60 % Kontextfenster zurück und verbessern Chat-Latenzen. Es ist der pragmatische Mix aus Kompression und Klarheit – sofort einsetzbar.