Artificial Intelligence hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben.
Doch ohne verlässliche Datenbasis kommt es zu Halluzinationen, die für die Firma tödlich enden können. Warum nur sind Daten so schwer zu kontrollieren? Die Antwort darauf weiß Benjamin Bohne, Group Vice President Sales CEMEA bei Cloudera.
Ungenauigkeiten in Artificial Intelligence (AI)-Anwendungen sowie damit verbundene Cybersecurity-Risiken gehören zu den größten Sorgen von Mitarbeitern und Führungskräften. Das ergab eine neue Untersuchung von McKinsey. Warum aber sind Daten so schwer unter Kontrolle zu halten und ständigem Wandel unterlegen? Das erläutert Benjamin Bohne, Group Vice President Sales CEMEA bei Cloudera, in einem Gastbeitrag:
„Je mehr und desto bessere Daten einer AI zur Verfügung stehen, desto leistungsfähiger und wertvoller werden ihre Erkenntnisse. Dieser zunehmende Datenfluss führt jedoch zu ernsthaften Herausforderungen in Bezug auf Sicherheit und Compliance. Denn im Gegensatz zu herkömmlichen Datensystemen, in denen Informationen in der Regel auf vorhersehbare Weise gespeichert und abgerufen werden, arbeitet AI flüssiger und schneller. AI-Modelle sind dynamisch, lernen und passen sich an. Sie verarbeiten und generieren kontinuierlich Daten in verschiedenen Umgebungen – vor Ort, auf Cloud-Plattformen und sogar in externen AI-Diensten – mit einer Geschwindigkeit und einem Umfang, der herkömmliche Sicherheitsansätze und statische Maßnahmen an ihre Grenzen bringt.“
Nicht zu vergessen: Die ständige Bewegung von Daten über verschiedene Teams, Abteilungen und Systeme hinweg macht es schwierig, nachzuvollziehen, woher Daten stammen, wie sie umgewandelt werden und wer Zugriff darauf hat. Unternehmen brauchen daher proaktive Leitplanken, die sicherstellen, dass AI-Daten von Anfang an geschützt sind, unabhängig davon, wie und wohin sie sich bewegen.
Die Herausforderung mit AI: Mehr Daten, mehr Risiko
Immer mehr Entscheidungen von Teams in Unternehmen basieren auf AI-gestützten Erkenntnissen. Dazu tauschen Teams Daten untereinander aus. So werden Daten über mehrere Systeme hinweg auf eine Art und Weise übertragen, die schwer zu verfolgen und zu kontrollieren ist. Ohne klare Leitplanken können sensible Informationen wie persönliche Kundendaten oder unternehmenseigene Informationen, die in AI-Modelle oder -Berichte eingebettet sind, unwissentlich offengelegt, missbraucht oder mit nicht autorisierten Nutzern geteilt werden.
Hinzu kommt: Da verschiedene Teams Daten in die AI-Modelle einspeisen, können Fehler, Verzerrungen oder veraltete Informationen die generierten Ergebnisse verzerren und deren Zuverlässigkeit verringern. Mit einer strengen Nachverfolgung der Datenabfolge können Unternehmen die Genauigkeit ihrer Daten sicherstellen. Dabei unterstützen beispielsweise automatisierte Lösungen zur Verwaltung von Metadaten, um Datenflüsse zu verfolgen und Fehler zu vermeiden, noch bevor sie sich auf AI-getriebene Entscheidungen auswirken.
Abgesehen von den Expositionsrisiken sind viele AI-Modelle wie Blackboxen, bei denen Unternehmen nur schwer nachvollziehen können, wie die Daten verarbeitet werden und Ergebnisse zustande kommen. Diese Undurchsichtigkeit wirft Compliance-Bedenken auf. Laut aktuellem NetApp Futurum Report geben rund 40 Prozent der befragten Entscheider an, zu den größten AI-Herausforderungen gehöre die Fähigkeit zur Erfüllung gesetzlicher und Compliance-Anforderungen für den sicheren Zugriff auf sensible Daten für AI-Trainings sowie auch die Verfügbarkeit und der Zugriff auf Trainingsdaten. Fehlende Compliance kann auch die Reputation schädigen, wenn AI-gesteuerte Entscheidungen nicht erklärt oder begründet werden können. Ohne die richtigen Vorkehrungen riskieren Unternehmen nicht nur Sicherheitsverletzungen, sondern auch gesetzliche Strafen, Betriebsunterbrechungen und den Verlust des Kundenvertrauens.
Von reaktiver Sicherheit zu proaktiver Governance
Um AI-Daten wirksam zu schützen, müssen Unternehmen von reaktiver Sicherheit zu proaktiver Governance übergehen. Sicherheitsmaßnahmen müssen von Anfang an in AI-Workflows eingebettet sein. Laut dem Gartner-Bericht „2023 Metadata Management in the Digital Age“ geben 60 Prozent der Unternehmen zu, dass sie nicht wissen, wo sich ihre geschäftskritischen Daten befinden. Dies ist ein ernsthaftes Problem: AI-Governance beginnt mit Transparenz, und Unternehmen müssen verstehen, wie AI-Modelle Daten verarbeiten und gemeinsam nutzen, indem sie die Datenverknüpfung von Anfang bis Ende verfolgen. Dies gewährleistet außerdem schnellere Reaktionszeiten im Angriffsfall.
Automatisierte Sicherheitskontrollen integriert in AI-Workflows garantieren, dass Datensicherheits- und Compliance-Richtlinien den Daten folgen, wo immer sie sich bewegen – ob On-Premises, in der Cloud oder in AI-Ökosystemen Dritter. Wichtig ist: Sicherheitsrichtlinien müssen sich mit den AI-gesteuerten Datenströmen dynamisch weiterentwickeln und sich an die Nutzungsmuster anpassen lassen, gerade wenn Unternehmen Innovation vorantreiben wollen.
AI-Sicherheit ist ein geschäftlicher Imperativ
AI-Sicherheit ist nicht mehr nur eine IT-Herausforderung, sie ist eine geschäftliche Notwendigkeit. Unternehmen, die ihre AI-Daten nicht ordnungsgemäß verwalten, riskieren Bußgelder, rechtliche Konsequenzen und das Misstrauen ihrer Kunden. Sie müssen die Kontrolle übernehmen, indem sie von Anfang an eine starke AI-Daten-Governance implementieren. Die Zukunft der AI-Sicherheit besteht nicht darin, auf Probleme zu warten, sondern sie zu verhindern, bevor sie entstehen. Unternehmen, die heute proaktive AI-Leitplanken aufbauen, werden morgen führend sein und bleiben.
Fazit
IT-Führungskräfte müssen verstehen, dass heutiges Datenmanagement als Basis für AI einen ganzheitlichen Datenschutzansatz erfordert, sei es durch eine moderne Data Lakehouse-Architektur oder eine Multi-Cloud-Datenmanagementstrategie. Da AI immer stärker in Geschäftsprozesse integriert wird, reichen rudimentäre Methoden der Datenverwaltung nicht mehr aus. Unternehmen sollten sich um kontinuierliche Transparenz, Management und Widerstandsfähigkeit bemühen – oder sie riskieren, die Kontrolle zu verlieren, wenn AI-gesteuerte Umgebungen immer komplexer werden.
Weitere Artikel zum Schwerpunkt „ Data Driven Innovation“