Warum selbstlernende KI-Systeme noch lange keine Selbstläufer sind
Eine KI-Anfrage verschlang kürzlich 87.000 Tokens – das entspricht etwa 65.000 Wörtern oder einem kleinen Roman. Pro Anfrage. Der Grund? Das System lud bei jeder Frage das komplette Datenbankschema, obwohl es sich nie ändert. Willkommen in der Realität von Agentic AI – wo zwischen "funktioniert in Demo" und "läuft in Production" Welten liegen.
Der unsichtbare Kostenfaktor
Bei GAFICON entwickeln wir KI-Lösungen für die Druckindustrie – und erleben täglich den Unterschied zwischen Marketing-Versprechen und Produktions-Realität.
Ein klassischer Anfängerfehler wie die 87.000-Token-Abfrage? Durchaus. Aber er illustriert perfekt ein größeres Problem: Die These "Mit KI kann jetzt jeder entwickeln" übersieht einen entscheidenden Punkt.
Die Kosten entstehen nicht beim Entwickeln – sie explodieren im Betrieb.
Während ein einzelnes KI-Training heute 100+ Millionen Euro kosten kann, ist das eine einmalige Investition. Die tatsächliche Herausforderung liegt im laufenden Betrieb: Führende Tech-Unternehmen verbrauchen mittlerweile Milliarden pro Jahr allein für die Bereitstellung von KI-Anfragen.
Nicht für Forschung. Nicht für Training. Nur für den täglichen Betrieb.
Die Verlagerung der Komplexität
Die Medienindustrie erlebt gerade eine paradoxe Situation:
➡️ Die Komplexität verschwindet nicht – sie verlagert sich.
Früher schrieben Entwickler Code. Heute orchestrieren sie KI-Systeme, die Code schreiben.
Der entscheidende Unterschied in der Praxis:
Ein Bug im Code → 10 Minuten Debugging
Ein Architekturfehler im KI-System → Tausende Euro Mehrkosten, bevor das Problem überhaupt sichtbar wird
Das typische Szenario: Ein Chatbot kostet im Test ein paar hundert Euro. In Production wird daraus stillschweigend ein fünfstelliger monatlicher Posten – weil niemand die Architektur auf Skalierung ausgelegt hat.
Die neue Vendor-Lock-Falle
Erinnern Sie sich an die 2000er Jahre? IT-Systeme wurden eng an einzelne Anbieter gekoppelt – mit teuren Folgen beim späteren Wechsel.
Die KI-Welt wiederholt diesen Fehler gerade. In Zeitraffer.
Typisches Szenario: Eine Lösung wird auf einem bestimmten KI-Modell mit speziellen Features aufgebaut – etwa Caching-Funktionen, die 90% Kosten sparen. Funktioniert perfekt. Drei Monate später:
Der Anbieter passt Preise an (+40%)
Ein Wettbewerber bietet bessere Performance
Ein neuer Anbieter verspricht 50% Kostenersparnis
Die Frage: "Können wir wechseln?"
Die Antwort: "Technisch ja – praktisch bedeutet es Wochen Entwicklungszeit und 60% der Architektur neu schreiben."
Das Problem: Jedes KI-Modell hat eigene Stärken, Limits, Pricing-Strukturen und Features. Wer modell-zentrisch entwickelt, baut auf unsicherem Fundament – besonders in einem Markt, der sich monatlich neu erfindet.
Wo es wirklich kompliziert wird: Die Medienproduktion
In der Druckindustrie treffen mehrere Herausforderungen aufeinander, die über "große Metadaten" weit hinausgehen:
1. Das Massendaten-Problem
Ein typischer Produktkatalog: 50.000 Artikel × 200 Metadatenfelder = 10 Millionen Datenpunkte.
Die naive Lösung? Alles in die KI laden und Fragen beantworten lassen.
Das Ergebnis? Anfragen dauern 10+ Minuten und kosten mehrere Euro – pro Abfrage.
Die Engineering-Lösung? Intelligente Vorfilterung mit lokalen Modellen, die 40 KB Nutzdaten auf 5 KB reduzieren, bevor die eigentliche Anfrage läuft. Ergebnis: 10x schneller, 90% günstiger.
2. Die Multi-Tenant-Herausforderung
Verschiedene Kunden nutzen unterschiedliche Produktionssysteme. Jeder mit eigenen Credentials, Datenstrukturen und Compliance-Anforderungen.
GDPR verbietet strikte Datenvermischung – auch nicht "aus Versehen" durch gemeinsame KI-Caches oder Prompts, die echte Namen statt Pseudonyme enthalten.
Die Konsequenz: Anonymisierung muss vor dem KI-Aufruf passieren, mit Session-basierten Mappings und konfigurierbaren Löschfristen.
3. Der Echtzeit-Kosten-Spagat
Produktionsleiter brauchen sofort Antworten – nicht in 5 Minuten.
Aber: 200 API-Aufrufe für eine einzige Nutzeranfrage können schnell 5 Euro kosten.
Caching spart 90% – aber nur mit der richtigen Architektur: Was cachen wir pro User? Was pro Mandant? Was global? Wie lange bleiben Daten gültig?
Diese Fragen entscheiden über Erfolg oder Bankrott im Production-Betrieb.
Agentic Coding: Beschleuniger, nicht Ersatz
KI-Coding-Tools beschleunigen Entwicklung erheblich. Die besten Systeme können mittlerweile Aufgaben lösen, die Menschen 5+ Stunden kosten würden.
Aber sie ersetzen Architektur-Know-how nicht:
✅ Was KI heute kann: • Boilerplate-Code in Minuten statt Stunden • APIs nach Dokumentation integrieren • Bugs in bestehendem Code identifizieren • Full-Stack-Anwendungen generieren
❌ Was KI (noch) nicht kann: • Entscheiden, ob Caching per-User, per-Tenant oder global sein soll • GDPR-Compliance-Risiken in Multi-Tenant-Umgebungen erkennen • Kosten-Architektur für Production-Betrieb über 12 Monate planen • Hybride Strategien entwickeln (wann lokale Modelle, wann Cloud-APIs?)
Die eigentliche Herausforderung: Der Paradigmenwechsel
2025 markiert einen Wendepunkt: Die KI-Industrie verschiebt ihren Fokus von "größer ist besser" zu "intelligenter ist effizienter".
Studien des MIT und von Epoch AI zeigen, dass traditionelles Scaling – einfach mehr Daten, mehr Rechenleistung, größere Modelle – abflachende Erträge liefert. Für die nächste Leistungsstufe braucht es nicht doppelt, sondern 10x mehr Ressourcen.
Beispiel aus der Praxis:
Ein Produktkatalog mit 10.000 Artikeln lässt sich mit einem Standard-KI-Modell gut durchsuchen. Die KI findet "rote T-Shirts in Größe M" zuverlässig.
Erweitern Sie den Katalog auf 50.000 Artikel (5x mehr Daten), brauchen Sie nicht 5x, sondern etwa 25x mehr Rechenleistung, um die gleiche Antwortqualität zu halten.
Bei 100.000 Artikeln? Bereits 100x mehr Ressourcen.
Warum? Die KI muss nicht nur mehr Daten durchsuchen – sie muss auch komplexere Zusammenhänge verstehen: "Das rote T-Shirt könnte auch unter 'Oberbekleidung rot' oder 'Kurzarm-Shirt karminrot' kategorisiert sein."
Die Lösung liegt nicht in noch größeren Modellen, sondern in intelligenterer Architektur: Vorfilterung nach Kategorie, semantische Indexierung, hybride Suchstrategien. Damit bleibt die Performance konstant – bei einem Bruchteil der Kosten.
Gleichzeitig sinken Inference-Kosten dramatisch: 10x Reduktion pro Jahr durch bessere Hardware, Optimierungstechniken und Wettbewerb.
Aber – und das ist entscheidend – die Nutzung wächst noch schneller. Unternehmen, die ihre Architektur nicht im Griff haben, erleben trotz sinkender Token-Preise explodierende Gesamtkosten.
Die Konsequenz: Die Zukunft gehört Hybrid-Architekturen.
Kleine, spezialisierte Modelle für Routine-Aufgaben (95% der Anfragen), kombiniert mit leistungsstarken Cloud-Modellen für komplexe Semantic-Analysen (5% der Anfragen). Das spart Kosten und macht unabhängig von einzelnen Anbietern.
Was KI-Systeme wirklich brauchen
KI-Systeme sind keine Software im klassischen Sinn. Sie sind Dialoge mit Unsicherheit.
Ein klassisches Programm liefert deterministische Ergebnisse. Ein KI-System interpretiert, variiert, und kann halluzinieren.
Deshalb benötigen produktive KI-Systeme:
1️⃣ Guardrails – Klare Grenzen für KI-Aktionen 2️⃣ Monitoring – Transparente Kostenkontrolle pro Anfrage 3️⃣ Fallbacks – Robuste Fehlerbehandlung 4️⃣ Modell-Agnostik – Unabhängigkeit von einzelnen Anbietern
Das ist Engineering. Nicht Prompt-Optimierung.
Fazit: Brave New World braucht smarte Architektur
Agentic AI ist keine Revolution, die alles ersetzt. Es ist ein mächtiges Werkzeug – dessen volle Kraft erst mit der richtigen Architektur zum Tragen kommt.
Die Zukunft gehört nicht denen, die am schnellsten KI-Features launchen. Sondern denen, die:
→ Architektur vor Hype stellen → Modell-agnostisch entwickeln → Hybrid-Lösungen bauen (lokal + cloud) → Business-Logik von KI-Magic sauber trennen
Ein konkretes Beispiel aus der Praxis: Das 87.000-Token-Problem ließ sich durch drei Engineering-Entscheidungen lösen:
• Lokaler Cache für statische Daten (Schema ändert sich nie) • Mandanten-Isolation für GDPR-Compliance • Intelligente Vorfilterung (Payload-Reduktion um 90%)
Ergebnis: 10x Performance, 90% Kosteneinsparung, null Vendor-Lock.
Oder anders formuliert: Die Brave New World braucht Ingenieure, die wissen, wann sie "Nein" zum Autopiloten sagen – und warum.
Frank Hirsch | GAFICON GmbH Entwicklung von KI-Lösungen für die Druckindustrie
💬 Was sind Ihre Erfahrungen?
Wo haben Sie die größten Herausforderungen beim Einsatz von Agentic AI erlebt? Welche Architektur-Entscheidungen haben sich bewährt?
#ArtificialIntelligence #AgenticAI #PrintTech #SoftwareEngineering #GDPR #MediaIndustry #GAFICON