Künstliche Intelligenz (KI) fasziniert die Menschen schon seit den 60er Jahren. Die Vorstellung, dass sich menschliches Denken digitalisieren und verbessern lässt, erscheint als logische Fortsetzung der technologischen Entwicklung. Als der IBM-Rechner Deep Blue im Jahr 1997 den damaligen Schachweltmeister Gari Kasparov schlug, war die Sensation perfekt. Wohin führt das, wenn Maschinen zukünftig in der Lage sein werden, eigene Entscheidungen zu treffen? Industrie 5.0 bezeichnet dabei die Zusammenarbeit zwischen Mensch und Roboter.  Die Fragen nach Moral und Ethik rücken in den Vordergrund. Und wer ist überhaupt verantwortlich, wenn KI im Rahmen des autonomen Fahrens eine falsche Entscheidung trifft? Die Entwicklung ist damit nicht nur auf die Technologie beschränkt, sondern auch auf die Frage, wie weit wir uns zukünftig von KI beeinflussen lassen wollen.

 

Die Entwicklungsstufen

Auch wenn wir von den aktuellen Möglichkeiten der künstlichen Intelligenz tief beeindruckt sind, stehen wir erst ganz am Anfang der Entwicklung. KI beinhaltet eine Vielzahl verschiedener Methoden, Verfahren und Technologien. Grundsätzlich wird zwischen drei Entwicklungsstufen der KI unterschieden.

Die erste Stufe wird als „Schwache KI“ bezeichnet. Auf dieser ersten Entwicklungsstufe befinden wir uns aktuell. In gegenwärtiger Form nutzen wir sie bei Sprachassistenten sowie bei Bild- und Spracherkennung. Auf diesem Level übertrifft die KI bei der Datenanalyse hinsichtlich Schnelligkeit und Zuverlässigkeit das menschliche Leistungsvermögen um ein Vielfaches.

Die nächste Stufe wird als „Starke KI“ betitelt. Diese Systeme sind zukünftig imstande, ihr Wissen und ihre Fähigkeiten in den verschiedensten Kontexten anzuwenden. Auf diesem Niveau wird erwartet, dass die Algorithmen argumentieren, entscheiden und kreativ sein können. Das Arbeiten auf menschlichem Niveau wird viele Bereiche durchdringen.

Die letzte Entwicklungsstufe „Super KI“ sprengt unsere Vorstellungskraft und soll die menschliche Intelligenz um ein Vielfaches übersteigen. Wir kennen die düsteren Szenarien aus Science-Fiction-Filmen, wenn Roboter die Weltherrschaft übernehmen. Es wird auf dieser Stufe keine Bereiche mehr geben, bei denen menschliches Handeln noch überlegen ist.

Aktuell müssen wir uns aber keine Sorgen machen, denn Experten gehen davon aus, dass wir noch mindestens 30 bis 40 Jahre benötigen, um Level zwei zu erreichen. Der Sprung zur „Super KI“ wird dann anschließend allerdings nicht mehr so lange dauern.

 

Deep Learning als Voraussetzung

Die heutigen Entwicklungen beruhen auf künstlichen neuronalen Netzen, die ein eigenständiges Lernen ermöglichen. Dabei werden Erkenntnisse der Neurowissenschaft genutzt. Einzelne Recheneinheiten (Neuronen) können durch eine Vernetzung Informationen intelligent verarbeiten. Die zugrundeliegende Architektur besteht aus sehr vielen Neuronen-Schichten. Zwischen diesen Schichten werden neue Informationen gebildet, die eine Repräsentation der ursprünglichen Informationen darstellen. Es geht also in die Tiefe, was der Begriff „Deep Learning“ passend ausdrückt.

 

Praxisbeispiel – Autonomes Fahren

Die Vision, dass wir beim Autofahren ein Nickerchen machen können, erfordert ein völlig autonomes Fahren. Der Fahrer wird zum Passagier und muss sich um nichts mehr kümmern. Das ist die höchste Ebene der fünf Entwicklungsstufen, die noch in weiter Ferne steht.

Assistiert – Teilautomatisiert – Hochautomatisiert – Vollautomatisiert – Autonom

Die Verantwortung verschiebt sich immer weiter vom Menschen zum Auto. Wir befinden uns aktuell souverän auf Stufe zwei, dem teilautomatisierten Fahren. Der Fahrer wird von Assistenzsystemen unterstützt und kann für kurze Zeit die Hände vom Lenker nehmen.

Der Weg ist noch weit. Es wird mindestens noch ein Jahrzehnt vergehen, bis autonome Systeme über deutsche Straßen rollen. Die Anforderungen sind komplex und exorbitant hoch. Informationen von Laserscannern, Ultraschallsensoren und Radarsystemen erstellen in Echtzeit ein 360-Grad-Modell der Fahrzeitumgebung. Verkehrsschilder müssen sicher interpretiert werden, Umgebungskarten liefern Daten, die zur Errechnung von Fahrmanövern notwendig sind. Nur künstliche Intelligenz in Form von Deep Learning hat das Potential, diese Menge an Operationen in der benötigten Geschwindigkeit auszuführen.

 

Praxisbeispiel – Bilderkennung

Bei jedem Foto mit dem Handy ist künstliche Intelligenz in Form der Gesichtserkennung aktiv. Das Bild wird analysiert und der Algorithmus erkennt, ob die Merkmale eines Gesichts vorliegen. Damit das funktioniert, hat das System vorab trainiert und Millionen Bilder analysiert. Weiterentwickelte Systeme erkennen die Augen von Menschen und Tieren und richten den Autofokus genau dorthin. Es gibt unzählige Abwandlungen dieser Gesichtserkennung.

Der Deep Fake mit dem Gesichtertausch erfreut als App seine User. Als reine Spaßanwendung lässt sich mit „Reface“ das eigene Gesicht in Bilder oder sogar Videos einfügen. Man wird im Handumdrehen zum Hauptdarsteller beliebiger Filme oder Serien. Auch dahinter verbirgt sich künstliche Intelligenz, die den Austausch der Gesichter mit Deep Learning realisiert hat.

Die Bilderkennung hat aber auch sinnvolle Anwendungsmöglichkeiten, wie zum Beispiel in der Medizin bei der Erkennung von Karzinomen. KI analysiert medizinische Aufnahmen und kann mit einer sehr hohen Wahrscheinlichkeit vorhersagen, ob es sich um einen bösartigen Tumor handelt oder nicht.

 

Praxisbeispiel – Spracherkennung und Übersetzung

Das Erkennen von Sprache ist ein Prozess, der seit mindestens 20 Jahren entwickelt wird. Dabei geht es um das maschinelle Verstehen des gesprochenen Wortes. KI hat hier die entscheidenden Impulse gegeben, sodass Sprachassistenten wie Siri und Alexa heute sehr gut funktionieren. Sprachassistenten werden ganz selbstverständlich genutzt. Die Bereiche der Spracherkennung, insbesondere der dialogorientierten KI sind wichtiger denn je. Ganz aktuell bereitet Microsoft die zweitgrößte Übernahme der Unternehmensgeschichte vor. Für rund 16 Milliarden US-Dollar möchte man sich den KI-Spezialisten „Nuance Communications“ einverleiben. Das Unternehmen ist bekannt für seine KI-gestützte Spracherkennungssoftware Dragon.

Die automatische Übersetzung von Text in eine andere Sprache erleichtert nicht nur den Urlaubstrip in andere Länder. Damit reduziert sich auch der Aufwand für notwendige Übersetzungen von Dokumentationen aller Art. Google als Wegbereiter der KI, steckt Milliarden in die KI-Forschung und hat früh „Google Translate“ veröffentlicht.

Doch es ist ein kleines Unternehmen aus Köln, welches mit „DeepL“ ein besseres KI-Tool zur Übersetzung anbietet. Vor allem bei komplexeren Texten und Satzkonstruktionen gewinnt die Übersetzung von DeepL deutlich gegenüber der von Google Translate.

 

Fazit

Ein Google-Manager hat im Jahr 2018 die Wichtigkeit von KI deutlich gemacht:

„KI ist eine der wichtigsten Sachen, an denen die Menschheit arbeitet. Tiefgreifender als Elektrizität oder das Feuer“

Es bleibt zu hoffen, dass wir bei der fortschreitenden Entwicklung die Kontrolle behalten.