Bereits beim Start von AI-Projekten kann viel schieflaufen, was die Projekte später deutlich zurückwirft oder gar zum Scheitern verurteilt. In der Regel sind sechs typische Fehler der Grund allen Übels.
Der Erfolg von AI-Projekten hängt ganz entscheidend davon ab, dass Unternehmen bereits im Vorfeld genau klären, welche Probleme sie mit Daten und AI lösen wollen, und konkrete Projektziele definieren. Dies ist notwendig, damit die Projektausrichtung stimmt und keine falschen Erwartungen geweckt werden, denn spätere Kurskorrekturen kosten viel Zeit und Geld. Doch auch direkt im Anschluss, wenn die Projektplanungen beginnen und wichtige Details der Problemlösung abgestimmt werden, lauern zahlreiche Fallstricke, die langfristig enorme Probleme verursachen können – bis hin zum vollständigen Scheitern des Projekts. Nach Erfahrung von HTEC sind die folgenden Fehler besonders kritisch:
- Treiben Unternehmen das Projekt zu schnell voran, ohne die Fähigkeiten und Ressourcen aller Stakeholder vollständig zu verstehen, entwickelt sich das Lösungsdesign leicht in eine falsche Richtung. Zudem werden dann oft Initiativen priorisiert, die sich eigentlich gar nicht umsetzen lassen und fehlschlagen.
- Beziehen Unternehmen Datenexperten nicht schon frühzeitig in die Projektplanung ein, kann das zu Datenblindheit führen. Das Resultat: Die Lösung ist in ihrem Nutzen beschränkt, weil die Daten unzureichend sind, oder sie schöpft das volle Potenzial der verfügbaren Daten nicht aus.
- Ohne das Know-how von Fachexperten – den sogenannten Subject Matter Experts (SMEs) – droht die Gefahr, dass Unternehmen wichtige regulatorische Anforderungen übersehen und die entwickelte Lösung dann nicht konform zu branchenspezifischen Verordnungen oder Richtlinien ist.
- Daten beeinflussen das Systemdesign, deshalb sollten Unternehmen die Konzeption von AI-Lösungen nicht allein Software-Architekten und Software-Entwicklern anvertrauen. Diese haben üblicherweise andere Prioritäten als AI- und Datenexperten. Während Software-Spezialisten die Schwerpunkte unter anderem bei Funktionalitäten, Usability und Performance setzen, stehen bei Datenspezialisten vor allem Datenqualität, Integrationen und Zugriffsmöglichkeiten im Vordergrund.
- Eigentlich ist klar, dass AI von qualitativ hochwertigen Daten abhängt – aus schlechten Daten lassen sich keine guten Erkenntnisse ziehen. Häufig besteht im Unternehmen aber kein Konsens darüber, was „gute Daten“ überhaupt sind, weil keine Standards für Datenqualität existieren. Unternehmen müssen sich frühzeitig damit befassen, wie sie ihre Datenbasis bewerten, strukturieren und gegebenenfalls verbessern können.
- Eine durchdachte Data Governance sorgt dafür, dass Daten korrekt, zugänglich und sicher sind und alle Prozesse rund um die Speicherung, Verwaltung und Nutzung von Daten den geltenden Richtlinien und Standards entsprechen. Versäumnisse in diesem Bereich können dazu führen, dass sich Daten nicht wie beabsichtigt einsetzen lassen.
„Bereits die Anfangsphase von AI-Projekten entscheidet über deren Erfolg und Misserfolg, denn hier werden wichtige Weichenstellungen vorgenommen und entscheidende Details geklärt“, betont Sebastian Seutter, Managing Director DACH bei HTEC.
„Fehler und Nachlässigkeiten in dieser Phase resultieren etwa in falsch zugewiesenen Ressourcen, Problemen bei der Datennutzung oder AI-Lösungen, die die Anforderungen der Nutzer nicht richtig erfüllen. Leider werden diese Auswirkungen meist erst spät sichtbar – und dann lässt sich nur noch schwer gegensteuern. Meine Empfehlung ist daher, so früh wie möglich externe Spezialisten mit viel Erfahrung in AI-Projekten hinzuzuziehen, die ein Projekt von Anfang bis Ende intensiv begleiten können.“
Weitere Artikel zum Schwerpunkt „Data Analytics“