Blog abonnieren

Selbsterklärende KI – neue Forschungsergebnisse

Ohne Frage wird KI von vielen Unternehmen als Schlüsseltechnologie betrachtet. Aber warum hat KI die Wirtschaft bislang weitaus weniger durchdrungen als erhofft? Der folgende Beitrag skizziert die Hintergründe und beschreibt eine Lösung zur Schaffung erklärbarer KI-Modelle.


usu_wp_daikiri_forschungsprojekt-ki_de_cover_800x800px

Lesen Sie das ausführliche Whitepaper 
DAIKIRI. Erklärbare diagnostische KI für industrielle Daten.

Jetzt herunterladen

 



Die Hürden von KI bei KMUs

Mehr als 99% der deutschen Unternehmen sind KMUs, die nahezu 60% aller Arbeitsplätze in Deutschland stellen und ca. 55% der Nettowertschöpfung tragen. Aber sie stehen auch vor der riesigen Herausforderung der Digitalen Transformation. Der Einsatz von KI wird als probates Mittel betrachtet, um diese zu lösen. Eine Gartner-Studie ergab allerdings, dass Unternehmen zwar häufig mit KI experimentieren, aber Schwierigkeiten haben, die Technologie in ihre Standardabläufe einzubinden. Die Gründe hierfür sind vielfältig. 

Fehlende Fach-Expertise

Kaum eine Unternehmenssoftware beinhaltet heute KI als Produkt-Bausteine für verschiedene Anwendungsfälle. So sind die Unternehmen oftmals angehalten, das Thema KI als Eigenentwicklung mit den vielen Open Source Frameworks voranzutreiben. Aufgrund des Fachkräftemangels, der fehlenden finanziellen Ausstattung und des ungewissen Mehrwerts ist Eigenentwicklung jedoch meist keine Option für KMUs. Die andere Möglichkeit ist, Cloud-basierte KI-Bausteine der großen Anbieter wie IBM, Microsoft oder Google zu nutzen. Solche Systeme setzen allerdings eine ständige Wartung und ein Training der Algorithmen voraus, um ihre Leistungsfähigkeit zu erhalten. Auch dies ist in der Praxis von KMUs kaum umsetzbar.

Datenengpass

Ein weiteres Problem ist der Mangel an guten Daten: Die meisten Methoden der KI basieren auf statistischen Verfahren über Daten, d.h., mittels maschinellen Lernverfahren werden automatisch Muster in zumeist großen Datenmengen identifiziert und strukturiert. So ist die Verfügbarkeit von ausreichend Daten mit einer hohen Qualität essenziell, aber zumeist nicht gegeben. Gründe hierfür sind z.B. die Datensparsamkeit aufgrund des hohen Datenschutzes oder Datensilos in verteilten Dokumentenablagen. Die Daten werden selten im Zusammenhang wahrgenommen und so ihr Potential nicht hinreichend evaluiert, entweder aufgrund ihrer Unbekanntheit oder der mangelnden datenzentrischen Kompetenzen bei den Mitarbeitern.  KMUs haben zusätzlich allein aufgrund ihrer Größe die Schwierigkeit, dass das Datenpotential für KI deutlich kleiner ist als bei einem Großunternehmen.

Fehlende Nachvollziehbarkeit von Deep Learning-Modellen

Die Vorteile heutiger KI-Methoden aus dem Bereich des Deep Learnings (DL) sind, dass Muster bzw. Lösungen in Daten gefunden werden, die Experten nur mit sehr hohem Aufwand oder gar nicht finden können. Die Vorhersagen mit DL sind meist präziser als mit herkömmlichen Methoden des maschinellen Lernens. Aber das DL bringt das Problem mit, dass die Methode eine Art Black-Box darstellt, die durch den Menschen nicht oder nur mit sehr hohen Aufwänden verstanden und ggf. erklärt werden kann. Gerade diese fehlende Transparenz, wie das Modell zu einer Lösung kommt, ist entscheidend für die Abwägung der Nutzung der KI-Ergebnisse, wie etwa in der Medizin bei der Differentialdiagnose. Fundamental wichtig ist es daher, in bestimmten Anwendungsfällen dem Nutzer eine verständliche Begründung für Entscheidungen aktiv bereitzustellen, um die Ergebnisse nachvollziehen zu können.

Erklärbarkeit von KI

Trotz der Entwicklung im Bereich der Erklärungswerkzeuge für Black-Box-Modelle, existieren bisher nur wenig gute Werkzeuge, die intuitiv verständliche Entscheidungserklärungen liefern. Insbesondere die bei einigen Anwendungsfällen wichtigste Zielgruppe der Erklärungen, die Domänenexperten, sind davon betroffen. Laut einer Studie des BMWi zu Erklärbarer KI sollten bei Anwendungen, die hohe Anforderungen an die Nachvollziehbarkeit der Modellentscheidungen stellen, bevorzugt White-Box-Modelle verwendet werden, wenn diese ausreichend gute Ergebnisse liefern. Deshalb ist es erstrebenswert, White-Box-Modelle zu verbessern, weiterzuentwickeln und existierende Verfahren auf weitere Datentypen zu überführen.

Das Ziel: Selbsterklärende KI

Um Schäden an Maschinen zu vermeiden, ist heute vielfach die Analyse von Sensordaten hilfreich. Sobald sich eine Anlage verdächtig verhält, spiegelt sich das in ungewöhnlichen Datenmustern. So genannte Machine-Learning (ML)-Algorithmen liefern derzeit allerdings nur Hinweise, ob „was“ ausgetauscht werden soll, jedoch nicht „warum“. Der für den Austausch des Maschinenstücks verantwortliche Servicetechniker muss jedoch auch wissen, warum der Algorithmus beispielsweise die Erneuerung einer Lüftung vorschlägt. Die mitgelieferte Begründung, z. B. Luftstrom nicht ausreichend oder Lebensdauer des Bauteils überschritten, unterstützt den Servicetechniker, adäquat zu reagieren. 

Derzeit können die Ergebnisse der Algorithmen nur von Machine-Learning-Experten verstanden und interpretiert werden. Damit ist das Zustandekommen eines Ergebnisses für Servicetechniker nicht nachvollziehbar. Diese Nachvollziehbarkeit datengetriebener Vorhersagen ist aber gerade für den Maschinenbau notwendig, um sichere Entscheidungen treffen zu können und kostenintensive Fehlentscheidungen zu vermeiden. 
Ziel des vom BMBF geförderten Forschungsprojekts DAIKIRI war es daher, neue, effiziente Verfahren zur semi-automatischen Semantifizierung von flachen Daten mittels aktiven Lernens und SML zu entwickeln und automatisch natürlichsprachige Erklärungen für die Klassifikationsergebnisse von SML sowie Black-Box Algorithmen zu generieren. Mit Hilfe dieser Verfahren wurden diagnostische selbsterklärende Smart-Services für Industriedaten entwickelt und mit Daten aus realen Anwendungsfällen evaluiert. 
Im Rahmen des Vorhabens gelang es erstmalig, KI-Verfahren zu entwickeln, die selbsterklärend sind und das Zustandekommen der Ergebnisse von KI automatisch „versprachlichen“ und damit transparent machen. Es hat sich gezeigt, dass die neu entwickelten Methoden auch für reale Daten geeignet sind und auf große Datenmengen skalieren. Für den Einsatz von KI erschließen sich dadurch neue Möglichkeiten – für viele Branchen und auch für KMU.


usu_wp_daikiri_forschungsprojekt-ki_de_cover_800x800px

 

Lesen Sie das ausführliche Whitepaper 
DAIKIRI. Erklärbare diagnostische KI für industrielle Daten.

Jetzt herunterladen

 

Artikel teilen:

Weitere interessante Artikel