Der Mittelstand muss seine Daten schnell analysieren können, um die Produktion zu verbessern und wettbewerbsfähig zu belieben.
Die Erkenntnisse könnten aber noch viel größer sein, wenn sich auch unstrukturierte Daten auslesen ließen. Dafür gibt es nun vielversprechende Ansätze
AI für den Mittelstand
Daten, oder vielmehr die daraus herausgezogenen Informationen sind eine der wichtigsten Unternehmensressourcen. In der Praxis erweisen sich strukturierte Daten, wie sie in Datenbanken, Pools, Lakes und sonstigen Behältern angehäuft werden, jedoch häufig als schlecht greifbar und unzugänglich. Die Artificial Intelligence (AI) hilft hier sehr! Sie erlaubt eine genauere und schnellere Analyse von Produktionsdaten als bislang möglich, Engpässe und Qualitätsabweichungen lassen sich damit schnell identifizieren, Prozesse optimieren. Und zwar automatisch und geschmeidig – denn AI-Systeme nutzen fortschrittliche Algorithmen, um Produkte in Echtzeit zu inspizieren und sofort zu erkennen.
„Ein intelligenter Blick auf das gesamte Spektrum der Unternehmensdaten schafft ein umfassendes Verständnis für alle Aspekte eines Kunden,“ so Gunnar Schug, CEO des Gruppenunternehmens und Head of Proalpha AI.
Auch ließen sich AI-Systeme schnell an wechselnde Produktionsvolumen oder Designänderungen anpassen, ohne manuelle Neukonfigurationen. Die Analyse von Produktionsdaten identifiziere zudem Muster, die auf potenzielle Ausfälle hinweisen. Dadurch lassen sich vorbeugende Wartungsmaßnahmen empfehlen, bevor kostspielige Ausfälle auftreten.
Die meisten Daten im Unternehmen liegen jedoch als unstrukturierte Daten vor. Diese sind oft textbasiert, können aber auch Bilder, Zahlen und andere Details enthalten. Auch die Kommunikation von mobilen Geräten, in sozialen Medien oder per E-Mail fällt darunter. Und sowohl ihr Umfang als auch ihre Zahl wächst aktuell enorm, denn im Internet of Things (IoT) werfen Sensoren und andere Messfühler jede Sekunde Unmengen an Daten aus, häufig völlig unstrukturiert. Denken Sie nur an moderne Autos, die den Fahrbahnbelag scannen und entsprechend die Federung justieren.
Ölfelder liegen brach
Laut einer Studie des Analystenhauses IDC lagen im Jahr 2022 mehr als 90 Prozent aller Daten in Unternehmen in unstrukturierter Form vor. 2023 betrug deren Menge über 70.000 Exabyte! Das ist ein nicht unerhebliches Problem: Die AI kann bislang ausschließlich strukturierte Daten lesen, unstrukturierte, die die überwiegende Mehrheit aller Daten bilden, jedoch nicht. Damit liegen – wenn wir Daten als das neue Öl betrachten wollen – riesige Ölfelder einfach brach. Verschiedene Ansätze versuchen dies zu ändern, wobei aktuell vorrangig Natural Language Processing (NLP), Computer Vision und Deep Learning zum Einsatz kommen.
NLP versucht als Teilgebiet der AI menschliche Sprache zu verstehen, was etwa bei Kundenfeedback, Social-Media-Beiträgen oder Keynotes von Vorteil ist. Computer Vision wertet visuelle Daten aus, etwa Sicherheitsaufnahmen, Produkt- oder medizinische Aufnahmen. Und Deep Learning sorgt dafür, dass auf Basis der gewonnen Informationen Prognosen erstellt werden können, etwa bezüglich der Lebensdauer eines Verschleißteils.
All diese Verfahren setzen auf Large Language Models (LLMs), die mit riesigen Datenmengen aus dem Internet trainiert werden. Sie funktionierten prinzipiell gut mit unstrukturierten Daten, aber das bedeute noch lange nicht, „dass sie diese verstehen“. Die Krux besteht darin, mit der Aufbereitung der Daten auf unterschiedliche Weise zu experimentieren und verschiedene Aufmerksamkeits-Algorithmen und -Ansätze auszuprobieren.
Large Language Models fördern Informationen
Das tun aktuell eine ganze Reihe von Anbietern, etwa box oder auch AWS, ganz zu schweigen von Microsoft und IBM. Einen interessanten Ansatz verfolgt allen voran Vast mit seiner Data Platform „Run:ai“. Für Unternehmen und CSPs dient sie als umfassende Softwareinfrastruktur, die unstrukturierte Daten erfassen, katalogisieren, verfeinern, anreichern, speichern und mit Echtzeit-Analysen für AI und Deep Learning sichern kann.
„Die Vast-Datenplattform wurde mit Blick auf das gesamte verfügbare Datenspektrum entwickelt: Dazu gehören zum Beispiel unstrukturierte und strukturierte Datentypen in Form von Video, Bildmaterial, ungegliedertem Text, großen Datenmengen sowie Gerätedaten, die überall auf der ganzen Welt erzeugt wurden und in Echtzeit und in Abhängigkeit von einer global vorhandenen Datenmenge verarbeitet werden müssen“, erläuterte Gregg Machon, Vice President, Worldwide Channels Vast Data. „Dieser neue Ansatz zielt darauf ab, die bisher vorhandene Lücke zwischen ereignisgetriebenen und datengesteuerten Architekturen zu schließen.
Sie bietet dabei folgende Möglichkeiten an:
- Erstens den Zugriff auf und die Verarbeitung von Daten in jedem privaten oder jedem großen öffentlichen Cloud-Rechenzentrum.
- Zweitens das Verständnis natürlicher Daten, indem eine abfragbare semantische Schicht in die Daten selbst eingebettet wird.
- Drittens die kontinuierliche und automatische Berechnung von Daten in Echtzeit, die sich mit jedem Vorgang und Prozess weiterentwickeln.
Das große Ziel: Eine Suchmaschine für umstrukturierte Daten
„Unsere Kund*innen sind in der Lage, Data Warehouses, Data Lakes und andere isolierte Daten auf einer einzigen Plattform zu vereinen, so dass sie schnelle, skalierbare Analysen ihrer strukturierten und unstrukturierten Daten durchführen können“, erklärte flankierend Neeloy Bhattacharyya, Director, AI/HPC Solutions Engineering bei Vast. „Sie können interaktive, leistungsstarke Analysen erstellen und es Datenwissenschaftlerinnen und Datenanalysten ermöglichen, Daten zu verarbeiten und Ad-hoc-Abfragen in großem Maßstab durchzuführen, indem sie die Analysetools ihrer Wahl verwenden, darunter Apache Spark, ElasticSearch, Trino, Dremio und Vertica.“
Für die Zukunft erwartet Bhattacharyy konsolidierte AI-Plattformen, die es generell einfacher machen, Ergebnisse durch maschinelles Lernen zu erzielen und zu interpretieren.
Das ist bekanntermaßen knifflig, aber am Ende des Weges soll eine Art Suchmaschine für unstrukturierte Daten stehen. Und tatsächlich hat Vast bereits Benchmarking-Arbeiten mit Elasticsearch und ähnlichen Plattformen durchgeführt, die unstrukturierte Daten durchsuchen können. „Diese Suchfunktion wird nicht in der ersten Version der DataEngine enthalten sein, aber angesichts der Kundennachfrage könnten wir uns vorstellen, sie zu priorisieren“, berichtete Bhattacharyy.