Dieses Bild hat keinen alternativen Text.
ImageFlow/ Shutterstock

Künstliche Intelligenz

Im Oktober 2015 gelang einer Künstlichen Intelligenz (KI) das, was lange Zeit als unmöglich galt: Sie besiegte einen professionellen Spieler des hochkomplexen Go Spiels. Die von Google entwickelte KI AlphaGo bezwang den mehrfachen Europameister Fan Hui und bestätigte ihren Erfolg seither mehrfach, auch gegen den wohl weltbesten Spieler Ke Jie. AlphaGo basiert auf der Methode des Maschinellen Lernens oder Machine Learning. Die Weiterentwicklung AlphaZero perfektionierte das Vorgehen des Algorithmus zwischenzeitlich weiter, trainiert sich basierend auf dem jeweiligen Regelwerk selbst und beherrscht neben Go auch Schach und Shogi besser, als es je ein Mensch tat.

Googles KI steht damit öffentlichkeitswirksam an der Speerspitze einer Entwicklung im Bereich des Machine Learnings, die dem lange Zeit stagnierenden Forschungsfeld der Künstlichen Intelligenz in den letzten Jahren neuen Auftrieb verlieh. Machine Learning beschreibt den Vorgang, bei dem aus bestehenden Daten Muster und Regeln abgeleitet werden und wurde in der jüngeren Vergangenheit stark weiterentwickelt. Inzwischen steht fest: KI ist gekommen um zu bleiben. Deshalb ist die Künstliche Intelligenz auch bei Fraunhofer FOKUS eines der Kernthemen, dessen Rolle in naher Zukunft noch wichtiger wird. 

Was ist KI? 

Die Begriffsdefinition von KI ist in Ermangelung einer festen Definition von Intelligenz schwierig.

Grundsätzlich muss zwischen der starken und der schwachen KI unterschieden werden. Das Ziel der starken KI ist es, das logisch-menschliche Denken vollumfänglich nachzubilden und nach Möglichkeit zu übertreffen. Eine starke KI handelt zudem autonom und aus eigenem Antrieb. Bis heute ist die Entwicklung dieser Ausprägung Künstlicher Intelligenz jedoch noch nicht gelungen.

Die schwache Künstliche Intelligenz hingegen bezeichnet den Versuch, Computer Algorithmen so zu entwickeln, dass sie spezielle Problemstellungen eigenständig und, im Optimalfall, besser als menschliche Benutzer lösen können. Die schwache KI findet bereits heute in vielen Bereichen Anwendung und ist ein fester Bestandteil industrieller Abläufe. Es muss allerdings zwischen zwei Ansätzen zur Generierung der KI unterschieden werden

Zwei Arten von KI 

Symbolische KI 

Bei der Symbolischen KI spricht man von einem Ansatz aus der Top-Down Perspektive: Sie funktioniert nur dort, wo ein formales Symbolsystem, also ein festes und vollständig bekanntes Regelwerk vorhanden ist. Mittels mathematischer Logik kann so aus den Vorgaben neues Wissen generiert werden. Deshalb wird sie auch als Wissensbasierte KI bezeichnet. Die Symbolische KI stößt allerdings dort an ihre Grenzen, wo Menschen sie nicht mit korrektem und konsistenten Wissen füttern können. Außerdem können Symbolische KIs sehr große Zustandsräumen, wie etwa beim genannten Beispiel Go, bei dem es etwa 10^170 mögliche Konstellationen gibt, nicht verarbeiten und daher nicht verwendet werden. 

Subsymbolische KI 

Bei der Subsymbolischen KI handelt es sich im Gegensatz dazu um einen Bottom-Up Ansatz: Das Ziel ist, ausgehend von einer großen Menge roher Daten, abermals mit der Hilfe mathematischer Modelle, Erkenntnisse und Vorhersagen über die bestmöglichen weiteren Schritte zu generieren. Das wichtigste Teilgebiet der Subsymbolischen KI sind die sogenannten Neuronalen Netzwerke. Bei dem meist mehrschichtigen Verfahren werden künstliche Neuronen in einem für den Menschen nicht direkt einsehbaren Verfahren durch Maschinelles Lernen verbunden und so ein Netzwerk künstlichen Wissens erzeugt. Man spricht von Maschinellem Lernen, wobei Lernen im Kontext computer-basierter Systeme meist Synonym mit dem Prozess der Optimierung verwendet wird. Die KI trainiert sich also basierend auf den vorgegebenen Datensätzen selbst und verbessert sich selbstständig. Die Auswahl der Trainingsdaten, die der KI als Ausgangspunkt zur Verfügung gestellt werden, trifft jedoch trotz allem der Mensch.

Hürden der KI  

Da sich die KI beim Machine Learning mithilfe der Trainingsdatensätze selbst trainiert, handelt es sich um ein Black Box Verfahren: Dem menschlichen Benutzer bleiben die Gründe der Entscheidungsfindung der KI unbekannt. Hieraus erwachsen einige Probleme der KI. Einerseits handelt es sich um statistische Verfahren, die inzwischen hinreichend genau funktionieren. Treten jedoch trotzdem Fehler auf, so geschieht dies unerwartet und vom Benutzer unerkannt. Teilweise kann dies fatale Folgen haben, wie sich beispielsweise bei Unfällen autonom fahrender Teslas in den USA zeigte. Aus der wachsenden Rolle der Künstlichen Intelligenz ergeben sich also vor allem in sicherheitskritischen Bereichen nicht nur technische, sondern auch ethische und juristische Fragen nach der Verantwortung für die Entscheidungen des Algorithmus.

Zusätzliche Probleme können aus den verwendeten Trainingsdatensätzen entstehen. Ist in diesen Datensätzen bereits eine Verzerrung oder Voreingenommenheit, ein sogenannter Bias, vorhanden, so wird dieser der KI angelernt und setzt sich deshalb fort. Dies geschieht deshalb, weil die künstliche Intelligenz immer von einer Objektivität der zur Verfügung gestellten Daten ausgeht, aus denen sie die Muster und anschließend ihr Regelwerk ableitet. Dies ist bei Daten mit Bias jedoch nicht gegeben – Vorurteile verpflanzen sich also. Ein Beispiel veranschaulicht das Problem: Überlässt man einer Künstlichen Intelligenz etwa die Auswahl potenzieller Bewerber für eine Führungsstelle in einem Unternehmen wäre es denkbar, dass die KI nur mitteleuropäische Männer vorschlägt, da diese in der Vergangenheit fast ausschließlich die Führungspositionen besetzten. Da die Bewertung jedoch mittels eines Black-Box Verfahrens erfolgt, ist dieser Bias von außen nicht zu erkennen, sodass der Fehler unerkannt bleibt und das Verfahren letztlich nur scheinbar objektiv ist.

Eine weitere Fehlerquelle stellt zudem das sogenannte Overfitting dar, wenn Trainingsdaten zu detailliert analysiert werden und die KI zu spezifisch auf den verwendeten Trainingsdatensatz konzentriert ist. Andererseits gibt es auch noch den gegenteiligen Effekt des Underfitting, bei dem zu wenige Daten zum Training verwendet werden, weshalb die KI nicht alle zugrunde liegenden Regeln und Muster erkennen kann und so nur ungenau funktioniert.

Regulierung von KI  

Diese Probleme führten in der Vergangenheit häufig zu berechtigter Kritik an Künstlicher Intelligenz und machen eine Regulierung der Anwendungen von KI nötig. Ein Ansatz hierfür wurde vom KI Bundesverband – in dem 160 Unternehmen der KI Branche zusammengeschlossen sind – mit dem KI Gütesiegel ins Leben gerufen. Das Gütesiegel stellt eine Selbstverpflichtung der teilnehmenden Unternehmen dar: Sie garantieren, die selbst auferlegten Standards der Branche einzuhalten. Dazu gehört unter anderem die Prüfung von- und der sorgsame Umgang mit Trainingsdaten, um mögliche Diskriminierungsmechanismen des Algorithmus weitgehend ausschließen zu können. Kritisch erwähnt werden muss jedoch, dass bei Nicht-Einhaltung der Standards derzeit keine Sanktionierung stattfindet und dass es sich nicht um ein von Experten verliehenes Qualitätssiegel handelt. Nichtsdestotrotz stellt die Einführung des Gütesiegels wohl einen richtigen Schritt hin zu mehr Transparenz im Bereich der Künstlichen Intelligenz und des Machine Learnings dar. 

KI bei FOKUS  

In der Forschungsarbeit bei Fraunhofer FOKUS spielt die Künstliche Intelligenz eine gewichtige Rolle. In der nahen und mittleren Zukunft wird das Thema noch weiter an Bedeutung gewinnen. Besonders in den Bereichen der Mobilität und der Stadtentwicklung gibt es bereits Forschungsergebnisse und -entwicklungen.

Mobilität

Der Forschungsbereich Mobilität beinhaltet eine Reihe von sicherheitskritischen Bereichen, in denen die Funktionalität der verwendeten Software durchgängig gewährleistet werden muss. Dies macht den Einsatz von KI, etwa im Rahmen autonomen Fahrens von Automobilen, zu einer besonders großen Herausforderung. Für vollständig autonom fahrende Fahrzeuge müssten weit entwickelte und sehr vielschichtige Neuronale Netze verwendet werden. Dies hätte jedoch die bereits beschriebenen Probleme der Intransparenz zur Folge, denn die Entscheidungsfindung der KI wäre nicht nachvollziehbar. Des Weiteren können Fehler der KI derzeit noch nicht ausgeschlossen werden. Es gibt also noch zu viele unbekannte Faktoren, die von Angreifern attackiert werden könnten und damit die Funktion des Systems negativ beeinflussen können.

Im System Quality Center von FOKUS haben wir uns mit der Forschung deshalb bislang vor allem auf die Sicherheit von Fahrassistenzsystemen konzentriert, die den Fahrer unterstützen, aber nach wie vor menschliche Kontrolle benötigen. Man spricht hier von einem modularen Verfahren, bei dem die Erkennung, und teilweise auch die Einschätzung der Folgen von Gefahren vom Computer übernommen wird, die letztliche Kontrollentscheidung jedoch beim Menschen liegt. Bei der Erkennung von Gefahren werden derzeit hauptsächlich Bild-, beziehungsweise Videoerkennungsverfahren verwendet. Doch auch hier ist Vorsicht geboten: So zeigten Versuche eines Zusammenschlusses mehrerer Universitäten aus den Vereinigten Staaten, dass bereits marginale und für den Menschen kaum erkennbare Änderungen an Verkehrsschildern zu Fehlinterpretationen und Falscherkennungen seitens des Bordcomputers führen können .

Aktuell arbeitet Fraunhofer FOKUS in einer Kooperation mit dem Automotive Quality Institute in Berlin an einer Verbesserung der Absicherung der Künstlichen Intelligenz im Bereich des automatisierten Fahrens. Für die Zukunft sind außerdem Projekte im Bereich der Luftfahrt geplant. 

Smart Cities

Im Bereich der Smart Cities, einem der wichtigsten Anwendungsfelder bei SQC, findet KI beispielsweise bei der proaktiven Verkehrsplanung Anwendung. Es gilt, die verschiedenen Bedarfe unterschiedlicher Nutzer und Stakeholder zufriedenstellend zu adressieren. Ein Beispiel hierfür ist etwa eine Route, die den Benutzer von einem Berliner Außenbezirk mit dem Zug nach München bringt. Hier sind die Verkehrsnetze der BVG (Berlin), die DB (Zugfahrt), sowie die MVG (München) involviert und müssen aufeinander abgestimmt werden, was einerseits sehr aufwendig und andererseits derzeit noch sehr teuer ist.

Für die Nutzung von KI in Smart Cities werden große Mengen an Daten benötigt. Die gute Nachricht: Vielerorts werden diese Daten bereits heute erhoben. Die schlechte Nachricht: Die Daten werden derzeit selten sinnvoll kombiniert. Außerdem handelt es sich häufig um hochsensible Daten, deren Auswertung etwa das Erstellen von Bewegungsprofilen von Bürgern erlauben würde. Deshalb ist es ein Ziel von FOKUS, die Methoden der homomorphen Verschlüsselung weiterzuentwickeln. Eine solche Verschlüsselung anonymisiert die Daten, behält aber gleichzeitig deren Struktur bei und erlaubt deshalb die Anwendung und das Trainieren von Künstlicher Intelligenz, ohne die Persönlichkeitsrechte einzelner zu verletzen.

In einem anderen alltagsbezogenen Projekt wird außerdem die Effizienz von Lieferketten von Lebensmitteln verbessert werden. Auch hier gibt es eine Reihe von Stakeholdern. Vom Erzeuger über den Lieferanten, den Verkäufer bis zum Endverbraucher gilt es besonders in der heutigen Zeit einen nachhaltigen Prozess einzuhalten, was bei der schieren Menge an beteiligten Parteien überaus komplex sein kann. Auch in diesem Bereich kann die KI helfen, die Schwachstellen in bestehenden laufenden Prozessen zu erkennen und zu verbessern.

Die Forschung im Bereich der Künstlichen Intelligenz passt nahtlos in die bei FOKUS entwickelte OUP Plus Smart Cities Referenzarchitektur. Besonders in den Bereichen der »Data Management & Analytics Capabilities« und » Integration, Choreography and Orchestration Capabilities« könnten Anwendungen der KI zukünftig helfen, die Datenverarbeitung und -analyse weiter zu optimieren.