Die Artificial Intelligence und ihre Agenten mischen gerade die IT-Szene auf. Unternehmen investieren verstärkt, um ihre Wettbewerbsfähigkeit hochzuhalten. Aber die AI und ihre Agenten benötigen zuallererst Daten – diese müssen konsistent in einem souveränen Raum vorgehalten werden. Sonst macht die AI keinen Sinn.
Immer mehr Anwender*innen stehen unter dem Druck, kritische Entscheidungen in unübersichtlichen Marktbedingungen sehr schnell treffen zu müssen – was nur mittels Artificial Intelligence (AI) möglich ist. „Die Nachfrage nach AI, die mehr leistet als nur Antworten zu generieren, wächst. Unternehmen wünschen sich Systeme, die komplexe Daten verstehen, ihre Ergebnisse nachvollziehbar erklären und eigenständig Maßnahmen ergreifen können“, beschreibt Megha Kumar, Research Vice President Worldwide Analytics & AI bei IDC, die aktuelle Situation.
Unternehmen setzten daher einerseits auf separate AI-Anwendungen, zunehmend bänden sie die AI aber auch direkt in ihre Arbeitsabläufe ein. Diese sogenannte „Built-in AI“ soll helfen, Entscheidungen datenbasiert zu treffen und Prozesse langfristig zu stabilisieren. Ziel ist es, sowohl schneller zu arbeiten als auch flexibler auf neue Anforderungen reagieren zu können. Auch Generative AI (Gen AI) – eine Technologie zur automatischen Erstellung von Texten, Bildern, Videos oder sogar ganzen Anwendungen – werde seit dem vergangenen Jahr in vielen Branchen vermehrt eingesetzt.
Dieses Jahr gehe es darum, einen echten wirtschaftlichen Nutzen aus der Technologie zu ziehen. Und tatsächlich zeigen sich in Branchen wie Handel, Medien und Finanzdienstleistungen erste messbare Ergebnisse: Die Anwender*innen berichten über eine bessere Personalisierung von Inhalten sowie schnellere Prozesse zu geringeren Kosten. Entscheidend sei in diesem Zusammenhang, wie gut die generative AI in bestehende Strukturen eingebunden ist.
Das übernimmt seit ein paar Monaten zunehmend die AI-Agenten. Bei der „agentischen AI“ arbeiten mehrere Systeme zusammen, um komplexe Aufgaben zu lösen – eigenständig, aber aufeinander abgestimmt. Die Technologie hilft gerade und ganz besonders bei dem eingangs beschriebenen Hauptproblem von Verantwortlichen: Entscheidungen zu treffen, sie auszuführen und im besten Fall die Ergebnisse zu optimieren. Diese Form der AI kommt zum Beispiel in der Logistik, im Kundensupport und in der Produktentwicklung zum Einsatz. Bemerkenswert dabei: Die AI agiert nicht nur reaktiv, sondern auch zunehmend vorausschauend.
„Die neue Agentic Experience schließt die Lücke zwischen Daten, Entscheidungen und Ergebnissen“, erläutert Mike Capone, CEO des BI-Experten Qlik. „Anwender*innen brauchen Lösungen, die sich nahtlos in den Arbeitsalltag integrieren und verlässliche Antworten im jeweiligen Kontext liefern.“
Agenten benötigen souveräne Daten
Verlässliche Antworten sind jedoch nur auf Basis vertrauenswürdiger Daten möglich. Sie sind das Lebenselixier von AI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur mit einer sauberen Datenbasis können AI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten.
Welche konkreten Maßnahmen sollten Unternehmen ergreifen, um eine solche vertrauenswürdige Datenbasis zu schaffen und ihre AI-Initiativen erfolgreich voranzutreiben? Qlik hat sechs Prinzipien ausgemacht, die für das Erstellen und Vorhalten von voll AI-fähigen Daten unerlässlich sind:
1. Heterogenität:
Daten müssen aus einer Vielzahl von verschiedenen Quellen stammen – also aus diversen demographischen, geographischen und zeitlichen Kontexten.
Eine heterogene Datenbasis stellt sicher, dass AI-Modelle verschiedene Perspektiven und Szenarien berücksichtigen. Nur so werden AI-Modelle in die Lage versetzt, zuverlässige Vorhersagen zu treffen und einseitige Halluzinationen zu vermeiden.
2. Aktualität:
Veraltete Daten beeinträchtigen die Leistung von AI-Modellen erheblich und führen zu fehlerhaften Entscheidungen. Für den Einsatz von AI muss daher sichergestellt sein, dass relevante Daten regelmäßig aktualisiert werden.
Dies kann durch die Implementierung von skalierbaren Echtzeit-Datenströmen und automatisierten Aktualisierungsprozessen erreicht werden.
3. Exaktheit:
Fehlerhafte oder ungenaue Daten können die Leistung von AI-Modellen erheblich beeinträchtigen und zu falschen Entscheidungen führen.
Unternehmen sollten Datenvalidierungs- und Bereinigungsprozesse implementieren, um die Genauigkeit ihrer Daten sicherzustellen. Regelmäßige Datenqualitätsprüfungen sind ebenfalls unerlässlich.
4. Sicherheit:
Daten müssen geschützt sein - nicht nur um Ransomware-Angriffen zu entgehen, sondern auch um die Integrität von AI-Systemen zu wahren und das Vertrauen der Anwender zu gewinnen.
Hier kommen die üblichen Verfahren wie Verschlüsselung, Zugriffskontrollen und regelmäßige Sicherheitsaudits zum Zuge. Sie müssen zudem den geltenden Datenschutzbestimmungen entsprechen – die DSGVO lässt grüßen.
5. Auffindbarkeit:
Die besten Daten sind wertlos, wenn weder Mensch noch Maschine wissen, wo sie zu finden sind.
Datenkataloge und Metadaten schaffen hier ebenso Abhilfe wie benutzerfreundliche Datenmanagement-Systeme. Generell sollten Daten leicht auffindbar und zugänglich sein, um die Nutzung relevanter und kontextbezogener Informationen zu ermöglichen.
6. Nutzbarkeit:
Nicht alle Datenformate sind für maschinelles Lernen (ML) und die Integration in AI-Modelle geeignet. Anwender müssen sicherstellen, dass AI-Modelle effizient und effektiv arbeiten können – etwa durch Einsatz gängiger Datenbankformate und die Ablage in einer konsistenten Struktur.
Unternehmen können hierfür beispielsweise Datenstandardisierungs- und Harmonisierungsprozesse implementieren. Diese Systeme müssen wie unter Punkt 1 aufgeführt auch in der Lage sein, Informationen aus verschiedenen Quellen zu integrieren und zu verarbeiten.
Datenräume fundieren LLMs
Jede Form der AI verspricht Unternehmen und Verwaltungen wie gesagt einen enormen Produktivitätsschub. Gleichzeitig sind große Sprachmodelle (Large Language Models / LLMs), die den AI-Anwendungen zugrunde liegen, in der Regel in der Public Cloud zuhause. Finden jedoch persönliche Daten oder Geschäftsgeheimnisse Eingang in die Trainingsdaten, setzen sich Anwender*innen einem enormen Risiko aus.
Das ließe sich leicht durch Lizenzen vermeiden, die den Rückfluss der schützenswerten Daten verhindern. Für viele Unternehmen stellen diese jedoch einen untragbaren Kostenblock dar. Außerdem bieten sie keine Antwort auf die Frage, wie die trainierten Modelle dort laufen können, wo sie gebraucht werden, z. B. im eigenen Rechenzentrum oder in einer Werkshalle. Besser wäre eine Lösung, die das Training von Sprachmodellen in einer privaten, geschützten Umgebung ermöglicht. Auch muss sie das für das jeweilige Anwendungsszenario passendste Modell anbieten und es genau dort betreiben, wo es am meisten Nutzen stiftet. Eine optimale Lösung erlaubt es, Agentic-AI-Anwendungen zu implementieren und zu nutzen.
Eine solche Lösung nennt sich „souveräner Raum“. Solche Räume sind längst von europäischen Politikern und Wirtschaftsstrategen als Reaktion auf vermeintlich unsichere Lösungen von amerikanischen Hyperscalern angestoßen und von diversen europäischen Anbietern umgesetzt worden. Auch die Hyperscaler wie AWS selbst offerieren mittlerweile angeblich souveräne Räume. Das sind dann in der Regel nichts anderes als Cloud-Plattformen, die unter Umständen Datenschutzbedenken aufwerfen. Auch begeben sich Nutzer*innen mehr oder weniger in ein Abhängigkeitsverhältnis zum Plattformanbieter, Stichwort „Vendor Lock-in“.
Datenräume verfügen über eine dezentrale Struktur
Für den Austausch von Daten, die von niemandem außer des Besitzers verändert werden können, braucht es vielmehr wirklich sichere, auch souverän genannte Datenräume. Im Gegensatz zu zentralisierten Plattformen nutzen sie eine dezentrale Struktur, die den Datenbesitzer*innen die volle Kontrolle belässt. Verbleiben die Daten zudem innerhalb von Europa, können die europäischen Datenschutz-Standards gemäß der DSGVO eingehalten werden.
Aus souveränen Räumen bezieht die AI und ihre Agenten ihre Informationen. Ohne sie ist sie dazu verdammt, vor sich hin zu halluzinieren, weil sie falschen Angaben aufsitzt oder ihr wichtige Daten vorenthalten werden. Die Entwicklung der AI ist damit eng verflochten mit der Entwicklung von souveränen Datenräumen. Nicht ohne Grund sind das zwei Schwerpunktthemen von Beyond Buzzwords im Jahr 2025.
Weitere Artikel zum Schwerpunkt „AI“