Wissen im Service | USU Blog

KI und Cloud – zwei kongeniale Partner | USU Software

Geschrieben von Henrik Oppermann | Jul 23, 2020 8:00:00 AM

KI und Cloud sind die beiden dominierenden IT-Themen in Industrie und Wirtschaft, die es neben Themen wie Datensicherheit in die Wahrnehmung breiter Teile unserer Gesellschaft geschafft haben. Cloud-basierte Dienste sind durch Smartphones zum Alltag eines Jeden geworden. Es gibt kaum noch populäre Apps, die ohne Zugang zu einer Cloud angeboten werden. KI zieht, zum Teil unmerklich, zum Teil öffentlichkeitswirksam, in unseren Alltag ein. In Prognosen zur voraussichtlichen Fahrtdauer arbeiten intelligente Algorithmen im Hintergrund, während Apps wie TikTok quasi damit werben, wie gut ihre KI ist. Im folgenden Beitrag betrachten wir die beiden Begriffe KI und Cloud und stellen ihre Bedeutung füreinander dar. Wie das Zusammenspiel in der Praxis funktioniert, zeigen wir am Beispiel des Forschungsprojektes „Service-Meister“. Dort wird der Service mittels KI in der Cloud zum Meister…

Was ist eigentlich KI?

Definitionen zum Begriff Künstliche Intelligenz gibt es zahlreiche. Z.B. schreibt das Magazin „Spektrum der Wissenschaft“: „Die künstliche Intelligenz (Abk. KI, E artificial intelligence, Abk. AI) ist ein Teilgebiet der Informatik, welches sich mit der Erforschung von Mechanismen des intelligenten menschlichen Verhaltens befasst (Intelligenz). Dieses geschieht durch Simulation mit Hilfe künstlicher Artefakte, gewöhnlich mit Computerprogrammen auf einer Rechenmaschine.“ In anderen Definitionen wird auch gerne die Nachahmung menschlichen Verhaltens durch Computerprogramme als Charakteristikum herangezogen. Generell ist die Definition des Begriffs schwierig, weil schon die Definition des Begriffs Intelligenz kein leichtes Unterfangen und auch noch nicht abgeschlossen ist. Definitionen sind daher meist empirisch, d.h. sie beruhen auf der Erfahrung, wie sich KI in Computerprogrammen verhält (z.B. durch den Turing-Test). Wichtig ist, dass intelligentes Verhalten durch unterschiedliche Methoden gebildet werden kann.

Dazu gehören

  • Die symbolische Wissensrepräsentation. Dabei wird ein bestimmter Teilausschnitt der realen Welt als Maschinen-verarbeitbares Modell abgebildet (modelliert) und kann z.B. mittels Methoden der mathematischen Logik automatisch verarbeitet werden. Ansätze der formalen Beschreibung oder Abbildung der realen Welt finden sich bereits bei Aristoteles.
  • Repräsentation eines Problemraums sowie einer Suche (Suchverfahren). Die abstrakte Darstellung eines Problems mit Hilfe eines Zustandsraums und die Suche nach gültigen Beziehungen in diesem Zustandsraum sind historisch die wichtigsten Methoden der KI und gehen auf den Mathematiker Leonhard Euler (1707-1783) zurück, der eine Art Graphentheorie einführte, die bis heute als Grundlage vieler Expertensysteme dient. Zur Lösung derart beschriebener Probleme werden meist regelbasierte Systeme verwendet. Diese sogenannten Produktionssysteme wie das GPS sind nach wie vor ein wichtiges Werkzeug der KI.
  • Verhaltensbasierte KI versucht das Verhalten von künstlichen, sozialen und biologischen Systemen mathematisch zu analysieren, modellieren und zu prognostizieren. Als besonderes Teilgebiet sei hier die Kybernetik erwähnt. Diese Methode wird vor allem in der Robotik erfolgreich verwendet (Cambrian Intelligence).
  • Die künstlichen neuronalen Netze (KNN) werden bereits seit 1961 untersucht, gerieten aber in Vergessenheit, weil vor allem die Rechenleistung fehlte, um diese Ideen in praktische, sinnvolle Anwendungen umzusetzen. Das Wissen kann bei ihnen durch Muster dargestellt werden, die sich selbst und Objekte der physikalischen wirklichen Welt repräsentieren. Da Muster als mathematische Vektoren darstellbar sind, kann man Ähnlichkeiten zwischen verschiedenen Mustern berechnen. Diese Neuronalen Netze werden heutzutage gerne als gleichbedeutend mit KI verstanden, sind aber nur ein Teilgebiet der KI.

Halten wir zusammenfassend fest:

KI ist weit mehr als Maschinelles Lernen oder Deep Learning. Verschiedene Methoden behalten ihre Berechtigung, und wie der Blogbeitrag von Harald Huber zeigt, kann es für bestimmte Anwendungen pragmatischer, günstiger und zweckdienlicher sein, intelligentes Verhalten eben nicht durch Machine Learning anzutrainieren, sondern durch andere Methoden zu erreichen.

Stand heute brauchen die meisten qualitativ guten Lösungen zumindest für die Erstellung, also vor der eigentlichen Benutzung, einen oder mehrere menschliche Experten: jemanden, der den KI-Algorithmus oder das KI-Modell erstellt und jemanden, der die fachliche Expertise beisteuert, also entweder das Wissen liefert, das repräsentiert werden soll, oder die selbst erlernten Ergebnisse bewertet, um den Lernalgorithmus zu verbessern (Supervised Learning).

Beide Punkte greifen wir zum späteren Zeitpunkt wieder auf.

Vorteile der Cloud / SaaS

Unter Cloud-Computing versteht man allgemein die Bereitstellung sowie Nutzung von IT-Infrastruktur wie Speicherplatz, Rechenleistung oder Software über das Internet. Dahinter steckt die Idee, diese IT-Infrastrukturen über ein Rechnernetz zur Verfügung zu stellen, sodass diese nicht auf lokalen Rechnern installiert sein müssen. Cloud-Computing gibt es in den drei Varianten Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS).

  • IaaS umfasst in erster Linie die Bereitstellung von technischer Infrastruktur wie Rechenleistung, Netzwerken oder Speicherplatz. Der Umfang dieser Dienste kann je nach Nutzerbedürfnissen jederzeit angepasst werden.
  • PaaS bietet Nutzern eine Plattform für die Entwicklung und das Anbieten eigener Software-Anwendungen. Hierzu werden bei dieser Art des Cloud-Service Programmierungs- und Entwicklungsumgebungen flexibel zur Verfügung gestellt.
  • Die Variante SaaS wird auch als Software on Demand bezeichnet und stellt die oberste Ebene des Cloud-Computing dar. Das SaaS-Modell umfasst reine Software-Anwendungen, die Nutzern als Cloud-Dienst vom jeweiligen Anbieter zur Verfügung gestellt werden.

Vorteile dieser Ansätze sind zum einen wirtschaftliche und liegen unter anderem bei der Einsparung von teilweise erheblichen Investitionen für Dienste, die in der Cloud einfach bei externen Dienstleistern angemietet werden können. Ein effektives Controlling vorausgesetzt, spart dies Kosten bei Personal bzw. der eingesetzten Hardware. Zum anderen gibt es technische Vorteile wie regelmäßige Upgrades durch den Anbieter, sowohl für Hardware als auch für Software, als auch bei der Umsetzung gesetzlicher Auflagen zum Datenschutz oder dem State-of-the-Art beim Thema IT-Sicherheit.

Für Software-Hersteller bietet der Cloud-basierte Ansatz für die Bereitstellung von Software zudem Vorteile bei der Wartung („zentraler“ Zugriff auf Systeme), was sich im Falle von „echtem“ SaaS nochmal verstärkt, da nur noch ein System für alle Kunden gewartet werden muss. Der PaaS-Ansatz ist darauf ausgelegt, eine zentral verfügbare Entwicklungsplattform bereitzustellen, bei der Anwender unter Nutzung bereits vorhandener Module oder Basisfunktionen eigene funktionale Einheiten ergänzen und zu einem Gesamtsystem zusammenstellen. Dieser Ansatz hat u.U. weitreichende Konsequenzen, denn es können ganze Software-Ökosysteme entstehen, bei der sich der Mehrwert eben nicht mehr aus einer Lösung eines Herstellers ergibt, sondern durch den Beitrag mehrerer so genannter Marktteilnehmer.

Prominentestes, weil erstes großes Beispiel dieser Art, war und ist Apples Appstore. Der Mehrwert ergibt sich nicht mehr aus dem Mobilgerät und proprietären Anwendungen allein (wie früher bei z.B. Nokia), sondern aus der offenen (aber kontrollierten) Plattform und dem Ökosystem von Anwendungen, die durch Dritte bereitgestellt werden.

Die Nachteile sollen nicht verschwiegen werden. Zum einen kann es je nach Ausgestaltung und Umfang der Auslagerung der IT in die Cloud zu sogenannten Lock-In -Effekten kommen, d.h. der Nutzer ist defacto an den Cloud-Anbieter gebunden, weil ein Wechsel zu zeit- und kostenintensiv wäre. Darüber hinaus sind große, zentrale Plattformen attraktiver für Hacker-Angriffe. Zwar sind dort in der Regel höhere technische Sicherheitsmaßnahmen realisiert. Allerdings sind dermaßen viele Daten gespeichert und im Falle eines erfolgreichen Angriffs abgreifbar, dass dies lohnenswerter erscheint.

Die hier wichtigen Aspekte sind aber der zentrale Zugang zu (je nach Umsetzung einheitlichen) Lösungen und der Möglichkeit, mehrere an der Entwicklung eines Gesamt- oder gar Ökosystems teilhaben zu lassen.

KI in der Cloud: 1+1=3?

Ohne Cloud Computing wäre der aktuelle Hype um Machine Learning (ML) vermutlich nicht möglich gewesen. Das Lernen aus großen Datenmengen ist u.U. ein extrem rechenintensives Unterfangen. Erst der leichte Zugang zu Cloud-basierten Infrastrukturen (IaaS) oder auch KI-Services wie Machine Learning (SaaS) und die dafür notwendige Rechenleistung ermöglichen die Entwicklung neuer "intelligenter" Produkte, Services und Geschäftsmodelle. Das gilt umso mehr für kleine und mittelständische Unternehmen. Dort kann der Aufbau von performanten und skalierbaren KI-Systemen schnell zu einer teuren Angelegenheit werden. Schließlich benötigt das Training von Algorithmen temporär Unmengen an Rechenleistung, die so später im Betrieb der entsprechenden Analytics-Systeme nicht mehr benötigt werden. Skalierbare Cloud-Angebote sind hier ein klarer Vorteil.

Darüber hinaus benötigt die Entwicklung von KI-Anwendungen bzw. die intelligente Erweiterung von bestehenden Anwendungen den leichten Zugang zu Rechenleistung, Daten, Konnektivität, aber vor allem additive Plattform-Services (z.B. bestimmte KI- oder ML-Methoden). Des Weiteren erleichtert der zentrale Ansatz auch die abteilungs- und unternehmensübergreifende Zusammenarbeit zwischen KI- und ML-Experten. Der zentrale Ansatz der Cloud unterstützt zudem ein vorherrschendes Paradigma in der KI-Entwicklung: zentral lernen, (de-)zentral ausführen. Konnektivität vorausgesetzt, ist es von Vorteil, die Daten von z.B. Produktionsmaschinen zentral zusammenzuführen, auf der damit besseren Datengrundlage zu lernen und damit bessere Algorithmen zu entwickeln.

KI und Cloud in der Praxis: das Projekt Service-Meister

Service-Meister ist ein durch das Bundesministerium für Wirtschaft und Energie (BMWi) gefördertes Projekt zur Erforschung und Entwicklung eines KI-basiertes Serviceökosystem für den technischen Service im Zeitalter von Industrie 4.0.

In der deutschen Industrie findet ein grundlegender Wandel in der Wertschöpfung von Produkten hin zu Dienstleistungen statt. Neuartige Geschäftsmodelle sind gefragt, die von deutschen Mittelständlern die Nutzung und Vermarktung ihres firmeninternen “Service-Wissens” erfordern. Das nötige Service-Wissen zu industriellen Anlagen übersteigt aber das Wissen einzelner Servicetechniker und z.T. sogar von Unternehmen. Einhergehend mit dem Fachkräftemangel steht der deutsche Mittelstand in den nächsten Jahren vor einer enormen Herausforderung, seinen Vorsprung in der Erbringung von Dienstleistungen zu sichern.

Um den deutschen Mittelstand dabei zu unterstützen, wird Service-Meister eine KI-basierte, anlagen-, abteilungen-, und firmenübergreifende Serviceplattform für den deutschen Mittelstand entwickeln. Ein wichtiges Teilziel ist es dabei, geringer ausgebildete Fachkräfte mit Hilfe von digitalen Ratgebern, z.B. KI-basierten Service-Bots und Smart Services, auch für komplexe Dienstleistungen zu befähigen.

Als zweites Teilziel soll über die Bereitstellung des digitalisierten Service-Wissens auf einer Plattform eine unternehmensübergreifende Skalierbarkeit von Services ermöglicht werden. Dadurch entsteht ein Serviceökosystem, dass dem Fachkräftemangel in Deutschland entgegenwirken soll und den deutschen Mittelstand langfristig wettbewerbsfähig macht.

In dem Projekt kommen daher beide oben beschriebenen Ansätze in Kombination zur Wirkung. Zum einen werden KI-basierte Services als Unterstützung für den Fachanwender entwickelt und dann zentral auf einer Plattform bereitgestellt. Dabei kommt auch die gesamte Bandbreite an KI-Methoden zum Einsatz. Das beste Beispiel ist vielleicht der intelligente Service-Bot. Wie in anderen Blogbeiträgen bereits beschrieben, macht es in vielen Anwendungsfällen durchaus Sinn, Bots nicht über Machine Learning umzusetzen, sondern die wesentlichen Aspekte wie Absichtserkennung (Intent Recognition, was ist mit der Frage gemeint?) und die Dialogstrategie (Wie verhält sich der Bot in bestimmten Situationen?) durch andere Methoden der KI, z.B. Entscheidungsbäume oder regelbasierte Ansätze der Wissensrepräsentation abzubilden. Auf der anderen Seite können Bots aber ungemein von Themen wie Machine Reading, also speziellen ML-Verfahren zur Erschließung und dem „Verstehen“ großer Textmengen, profitieren. Ziel von Service-Meister ist es, beide Ansätze zu kombinieren, also Texte automatisch feingranular mit Machine Reading aufzuarbeiten und dieses Wissen Bots als Wissensbasis zur Verfügung zu stellen, die aber über andere, kontrollierbarere Methoden kommunizieren und damit nicht Gefahr laufen, sich unkontrolliert in eine „Ecke“ zu entwickeln.

Der zweite, für die Nutzer besondere Aspekt ergibt sich aus der zentralen Bereitstellung solcher KI-basierten Services auf einer Plattform. Die allumfassende, allwissende KI gibt es nicht. Solche KI-basierten Lösungen sind derzeit und auf absehbare Zeit punktuelle „Fachidioten“, also auf bestimmte funktionelle oder thematisch eingegrenzte Bereiche zugeschnitten. Erst eine Ansammlung intelligenter Unterstützungssysteme entlang der kompletten Servicekette, auch ergänzt von Partnern oder dem Kunden selbst, lässt ein Mehrwertsystem bzw. Ökosystem entstehen.