Der Umgang mit AI ist für viele Arbeitnehmer eine spannende Angelegenheit, sie wir ihnen aber oft durch Richtlinien am Arbeitsplatz vergällt. Eine neue Studie offenbart eine „AI/Governance-Lücke“ in Unternehmen.
Die Mehrheit der Arbeitnehmer geht bereits mit Tools der Artificial Intelligence (AI) um, die Mehrzahl davon zeigt sich fasziniert. Das ist das Ergebnis des jüngsten TechnikRadars von Forsa im Auftrag von Acatech – Deutsche Akademie der Technikwissenschaften. Die Bevölkerung erkenne den Nutzen von AI für die Gesellschaft, sehen aber auch deren Risiken. Am positivsten bewerten die Befragten den AI-Einsatz in der medizinischen Diagnostik (nützlich: 66 Prozent / riskant: 34 Prozent). Bei autonomen AI-Agenten (nützlich: 38 Prozent / riskant: 34 Prozent) sowie bei AI-gestützter Produktion von Inhalten (nützlich: 52 Prozent / riskant: 44 Prozent) halten sich Nutzen und Risiken im Meinungsbild ungefähr die Waage.
90 Prozent der Befragten fordern eine klare Kennzeichnung AI-generierter Inhalte. Insgesamt herrscht unter den AI-Erfahrenen aber eine positive Grundhaltung: Viele empfinden generative AI als Arbeitserleichterung (50 Prozent) und sind von ihrer Leistungsfähigkeit fasziniert (65 Prozent).
Richtlinien sind unbeliebt
Es gibt aber ein großes Problem: Nur ein geringer Prozentsatz der Anwender in Unternehmen kennt die offiziellen Richtlinien für deren Nutzung. Noch mehr: Sie mögen diese nicht. Das sind die Hauptergebnisse einer Umfrage unter Arbeitnehmern in Deutschland, Südafrika, den Niederlanden, Frankreich, Großbritannien und den USA im Auftrag des Sicherheitsexperten KnowBe4. Man könne von einem Ungleichgewicht zwischen der Akzeptanz von AI und dem Bewusstsein dafür sprechen.
Im Schnitt setzen laut Studie 60,2 Prozent der Mitarbeiter AI-Tools am Arbeitsplatz ein. Im Gegensatz dazu kennen nur 18,5 Prozent die Richtlinien ihres Unternehmens für deren Einsatz. Diese Lücke deutet darauf hin, so Roger Grimes, Data-Driven-Defense-Evangelist bei KnowBe4, dass die überwiegende Mehrheit der AI-Aktivitäten in Unternehmen ohne Anleitung oder Aufsicht stattfindet. Jeder zehnte Mitarbeiter habe zudem zugegeben, Kundendaten in ein AI-Tool eingegeben zu haben, um eine Arbeitsaufgabe zu erledigen.
„Eine AI-Governance-Lücke ist für Unternehmen wie eine tickende Zeitbombe“, erläutert Grimes. „Wenn die Mehrheit Ihrer Belegschaft AI nutzt, aber weniger als 20 Prozent die Einsatzregeln verstehen, haben Sie ein massives Problem. AI-Tools sind zwar leistungsstark, ohne klare Richtlinien und Schulungen können Mitarbeiter jedoch unwissentlich sensible Informationen wie Kundendaten in Systeme einspeisen, die nicht für den sicheren Umgang damit konzipiert wurden. Wir denken bei Cyberrisiken oft an externe Gefahren, aber im Zeitalter der AI kann auch ein interner, unbeabsichtigter Missbrauch zu schwerwiegenden Datenschutzverletzungen, Compliance-Verstößen und Reputationsschäden führen.“
Weitere Erkenntnisse aus verschiedenen Regionen:
- Unterschiedliche AI-Akzeptanzraten:
Der weltweite Durchschnitt der Arbeitnehmer, die AI am Arbeitsplatz nutzen, liegt bei 60,2 Prozent. Die Akzeptanzraten variieren jedoch je nach Region. Mit nur 54,2 Prozent der Arbeitnehmer, die angaben, AI-Tools bei der Arbeit zu nutzen, weist Frankreich die niedrigste Annahmequote auf, was auf eine langsamere Akzeptanz hindeutet. Im Gegensatz dazu verzeichnet Südafrika mit 70,1 Prozent die höchste Rate, was eine weit verbreitete Nutzung von AI vermuten lasse. - Anhaltende Lücken im Bewusstsein für die Politik:
Im Durchschnitt gaben 14,4 Prozent der Arbeitnehmer an, die AI-Richtlinien ihres Unternehmens nicht zu kennen. Besonders auffällig ist dieser Mangel an Bewusstsein in den Niederlanden (16,1 Prozent) und im Vereinigten Königreich (15,8 Prozent), was auf einen Bedarf an verbesserten Kommunikations- und Schulungsstrategien hinweist. - Die sanktionierte AI-Nutzung hinkt hinterher:
Nur durchschnittlich 17 Prozent der Mitarbeitenden nutzen AI bei der Arbeit mit dem Wissen ihres IT-/Sicherheitsteams. Diese Zahl ist in Südafrika mit 23,6 Prozent zwar am höchsten, bleibt aber insgesamt niedrig. Dies deutet darauf hin, dass Unternehmen proaktiv genehmigte AI-Lösungen bereitstellen und fördern müssen.
Die Studie unterstreicht, wie wichtig es für Unternehmen ist, diese Kluft zwischen Bewusstsein und Nutzung zu überbrücken. Dazu ist es erforderlich, nicht nur Richtlinien festzulegen, sondern diese auch aktiv zu kommunizieren. Außerdem müssen umfassende Schulungen zur ethischen und sicheren Nutzung von AI angeboten und bewährte, benutzerfreundliche AI-Tools bereitgestellt werden, um die erheblichen Risiken einer unkontrollierten AI-Nutzung zu mindern.
Entwicklung von Richtlinien hinkt
Eine weitere Studie kommt zu einem vergleichbaren Ergebnis: Die Umfrage, die ISACA zwischen dem 28. März und dem 14. April 2025 unter insgesamt 561 Geschäfts- und IT-Fachleuten in Europa durchgeführt hat (weltweit mehr als 3.200 ) zeigt, dass fast drei Viertel der europäischen Mitarbeiter bereits generative AI bei der Arbeit nutzen. Auch diese Studie fragte nach den Richtlinien und stellte fest, dass diese gerade einmal von knapp einem Drittel der Unternehmen (31 Prozent) eingeführt worden sind.
Mit Blick auf die Zukunft sind 62 Prozent der Befragten optimistisch, dass sich AI im nächsten Jahr positiv auf ihr Unternehmen auswirken wird. Fast zwei Drittel (63 %) sind jedoch sehr oder äußerst besorgt, dass generative AI gegen sie eingesetzt werden könnte. 71 Prozent erwarten zudem, dass Deepfakes im kommenden Jahr noch stärker verbreitet sein werden.
„Mit dem EU AI Act, der neue Standards für Risikomanagement und Transparenz setzt, müssen Unternehmen schnell vom Bewusstsein zum Handeln übergehen”, sagt Chris Dimitriadis, Chief Global Strategy Officer von ISACA. „AI-Bedrohungen, von Fehlinformationen bis hin zu Deepfakes, entwickeln sich schnell weiter, doch die meisten Unternehmen haben noch nicht in die entsprechenden Tools oder Schulungen investiert. Die Schließung dieser Risiko- und Handlungslücke ist nicht nur eine Frage der Compliance – sie ist entscheidend für den Schutz von Innovationen und die Aufrechterhaltung des Vertrauens in die digitale Wirtschaft.“
Weitere Artikel zum Schwerpunkt „Data Analytics“