KI als Chance für die deutsche Industrie

zukunft-der-industrie

Prof. Dr.-Ing. habil. Alois C. Knoll, Lehrstuhlinhaber für Echtzeitsysteme und Robotik, Technische Universität München, fortiss GmbH

Anders als gegenwärtig mit einem leichten Gefühl des Schauerns vielfach kolportiert, wird Künstliche die Menschliche Intelligenz nicht überflügeln. Ebenso wenig werden Roboter im Sauseschritt alle Tätigkeiten im industriellen Bereich übernehmen. Aber: es wird dramatische Veränderungen geben. Und das ist potentiell eine große Chance für die deutsche Industrie.

Was passiert da gerade?

Um das zu verstehen, werfen wir einen Blick auf die Entwicklung der Rechen- und Informationstechnik in den letzten zwanzig Jahren: die Verarbeitungsleistung der Prozessoren durch Fortschritte in Miniaturisierung und Hardwaretechnik hat sich je nach Sichtweise mindestens vertausendfacht, die Leistung der Kommunikationsnetze in jeden Haushalt hat sich verzehntausendfacht, und die Speichergrößen haben ein ebensolches Wachstum erlebt. Dabei wurden Komponenten und Geräte immer kleiner, leichter und sparsamer. Es gibt keine andere von Menschenhand geschaffene Technik, die über Jahrzehnte hinweg ein nahezu perfektes exponentielles Leistungswachstum vorzuweisen hat. Gleichzeitig, und mindestens ebenso wichtig, hat sich die Produktivität bei der Softwareentwicklung vervielfacht, und die heute handhabbare Komplexität von Programmsystemen ist dramatisch höher als noch vor zwanzig Jahren.

Dank dieser Entwicklungen kommen nun Methoden der Informatik in den Bereich der praktischen Realisierbarkeit, die mit dem Stand der Technik vor zwanzig und selbst vor zehn Jahren nicht denkbar waren. Dies betrifft prinzipiell natürlich alle Klassen von Programmsystemen, aber eben vor allem auch jene, die seit der Prägung des Begriffs der Künstlichen Intelligenz dieser zugerechnet worden sind: Schrift-, Bild-, und Sprachverstehen, Planung, Optimierung, Maschinelles Lernen, Robotik. Die KI galt immer schon als „Kommende Informatik“, d.h. sie hat kontinuierlich harte und mit dem jeweiligen Stand der Technik noch lange nicht lösbare Probleme formuliert.

Viele dieser Probleme sind mit heutiger Methodik und Technik lösbar und als Anwendungen im Masseneinsatz – das schon klassische Beispiel sind Navigationssysteme, deren Suchalgorithmen Teil der KI in ihrer ursprünglichen Formulierung waren (und beispielsweise Grundlage der klassischen Schachprogramme sind). Wir stehen aufgrund dieser Informatik-Entwicklungen damit an der Schwelle zu einer ganzen Reihe von neuen Anwendungen für Rechner, die über die klassische Applikation von Computern als „Zahlenfresser“ hinausgehen – sie werden zukünftig eine Vielzahl von Aufgaben übernehmen deren Bearbeitung bislang dem menschlichen Intellekt vorbehalten waren. Beispiele sind ultraschnelle „Textversteher“ zum Zwecke des Auffindens von ähnlichen Konzepten in großen Sammlungen von wissenschaftlichen Veröffentlichungen, alle Arten von Assistenzsystemen für das Alltagsleben, „Szeneninterpretationsmaschinen“ für die Verhältnisse in der dynamisch sich wandelnden Umgebung eines automatischen Fahrzeugs, dynamische Entscheidungsfindung für komplexe Systeme (wie z.B. Unternehmen) unter Unsicherheit bei gleichzeitiger Optimierung über maschinelle Lernverfahren.

Ob diese Beispiele nun als Maschinenintelligenz bezeichnet werden oder nicht: es ist nicht übertrieben zu sagen, dass wir gerade Zeuge des Beginns eines neuen Zeitalters werden, in dem (kleine aber wichtige) Teilbereiche menschlichen Kognitionsvermögens auf Maschinen übertragbar werden – und damit prinzipiell beliebig zu vervielfachen und zu beschleunigen sind. Allerdings bedeutet das nun eben gerade nicht, dass wir mit diesen Entwicklungen dem Verständnis oder gar dem Nachbau der der Gesamtheit der menschlichen Intelligenz wesentlich näherkommen; im Gegenteil: ganz offensichtlich beruht die Intelligenz unseres Gehirns ja gerade nicht darauf, dass es in der Lage ist, ganz besonders schnell riesige Zahlenströme zu verrechnen, sondern vielmehr auf der ständigen Interaktion mit unserer Umwelt und unseren Artgenossen – vermittelt über unseren Körper. Möglicherweise wird man auch diese Prozesse irgendwann virtualisieren können, aber dazu wird ein sehr viel besseres Verständnis menschlicher Kognition und Problemlösefähigkeit und entsprechende Forschungsarbeit erforderlich sein.

Was heißt dies nun für die deutsche Industrie?

Zuerst: Offenheit für und „Hunger“ auf die sich bietenden Möglichkeiten der KI für die Schaffung ganz neue Produktklassen, Nutzung der KI bei der Entwicklung solcher Produkte und für deren Fertigung. Kaum eine andere Volkswirtschaft verfügt über ein derart breites Wissen zur Entwicklung komplexer Komponenten, Endprodukte, Systemlösungen und Produktionsprozesse wie die deutsche. Dieses gilt es nun zu kombinieren mit den qualitativ neuen Möglichkeiten, die aufgrund der skizzierten Entwicklungen zur Verfügung stehen und daraus maßgeschneiderte Lösungen zu konstruieren, die die Überzahl der weitgehend auf den Massenbedarf setzenden US-Firmen nicht bieten werden. Es verhält sich hier ähnlich wie in der Mikroelektronik: Deutschland konstruiert schon lange keine Prozessoren mehr für den Massenmarkt, und doch ist es gelungen, bei der Integration der Mikroelektronik-Komponenten zu hochwertigen Systemen eine Führungsrolle zu übernehmen und diese sogar im Laufe der Jahre auszubauen.

Weiter sollte man erkennen, dass die KI im industriellem Umfeld in Zukunft zwei Schlüsselfunktionen übernehmen wird: zum einen werden in den Systemen an unterschiedlichsten Stellen eine Vielzahl von Daten entstehen, wie beispielsweise Messwerte aus Kameras in Echtzeit bei autonomen Autos, Werte aus tausenden von Messpunkten zur Überwachung von allen Komponenten einer Produktionsstätte bis hin zu den Ergebnissen aus den Sensoren, die Personen in einem Gebäude an ihrem Körper zur Aufzeichnung von Vitalfunktionen tragen. Diese Daten sind zu reinigen, zu analysieren, miteinander in Bezug zu setzen, zu interpretieren und dann darauf fußend dann Entscheidungen zu treffen, typischerweise in Kommunikation mit anderen Entscheidungsinstanzen, z.B. in einer anderen Fabrik derselben Firma. Die für die Entscheidungsfindung nötige massive Kognitionsleistung kann nur von entsprechend angepassten Methoden der KI erbracht werden.

In diesem Zusammenhang sei bemerkt, dass die bekannten Anwendungen von Google, Facebook und Microsoft immer den Massenmarkt im Blick haben: Millionen Kunden steuern eigene Daten zum Gesamt-Datenbestand bei, die Aufgabenstellung ist aber für jeden Kunden dieselbe. Beim Einsatz von KI in der Industrie ist es aber anders herum: die Kunden haben sehr spezifische, oft unkonventionelle Fragestellungen; vor allem sind die vorhandenen Datenbestände typischerweise sehr viel kleiner als in Googles Massenanwendungen, und oft sind sie unerschlossen. Sie repräsentieren allerdings Abbilder des Prozessgeschehens (und damit auch indirekt des Know-Hows) und sollten daher nicht nach außen gelangen. Ferner hat ein industrieller Kunde hohe Erwartungen an die Qualität der Resultate, wie kurze Trainings- und Antwortzeiten beim maschinellen Lernen, Präzision der Berechnungen, Ausfallsicherheiten. Aus Sicht der Entwicklung von KI-Methodik bedeutet dies beispielsweise, dass neuartige Verfahren zu entwickeln sind, die mit kleineren Datenbeständen in kurzer Zeit lernen können. Ferner sollte man sich auch von den populären Veröffentlichungen nicht täuschen lassen: der Prozess des maschinellen Lernens und der Anwendung von trainierten Netzen ist keineswegs einfach, sondern erfordert nach wie vor viel Erfahrung und Expertenwissen. Auch hier öffnet sich ein sehr vielversprechendes und weites Feld für spezifische Industrieentwicklungen.

Die zweite Schlüsselfunktion ist die Kommunikation zwischen diesen hochkomplexen Systemen und dem Menschen: nur dann, wenn die Systeme ihre innere Komplexität vor dem Menschen verbergen und diesen – durch ihr Wissen um die menschliche Intelligenz und Interaktionsfähigkeiten – in die Lage versetzen, sich mit ihnen so direkt und unkompliziert wie mit einem menschlichen Kommunikationspartner auszutauschen, werden sie auf Dauer Akzeptanz finden. Beispiele, die hier bereits Einzug in den betrieblichen Alltag halten sind einfache virtuelle Agenten, die die Bedienung von anderen Softwaresystemen übernehmen (RPA: „Robotic Process Automation“) oder aber deutlich verbesserte maschinelle Übersetzer, automatische Generatoren von kurzen Routinetexten auf der Basis von Wirtschaftsdaten, automatische Übersetzer von Bildern in Texte, Echtzeit-Visualisierer von Prozessen und deren Zuständen auf der Basis natürlichsprachlicher Anfragen. Hier entsteht eine ganze Landschaft von „virtueller Arbeitskraft“, also Assistenten, die auch über weite Strecken Arbeitsabläufe übernehmen können, die bislang von Menschen in Kooperation mit Rechnersystemen bearbeitet wurden. Dies ist vergleichbar mit der sukzessiven Einführung immer leistungsfähigerer Assistenzsysteme im Auto, die über immer längere Strecken selbst fahren können – die Erreichung vollständiger Autonomie ist ein schleichender Prozess, kein plötzliches Ereignis. Eines ist aber schon jetzt klar: die Arbeitswelt wird sich drastisch verändern, und wir werden alle nicht nur unsere traditionellen Arbeiten anders als gewohnt ausführen, sondern ganz neue Aufgaben erledigen können – unterstützt durch Assistenten, die unter Nutzung von Wissen sowohl im Cyberspace als auch in unserer realen Welt für uns und ggf. auch für sich selbst handeln können.

Wie stellen wir die deutsche Wettbewerbsfähigkeit wieder her?

Die offiziell erklärte Politik Chinas ist es, bis zum Jahr 2025 die Technologieführerschaft in der KI zu erreichen. Im Januar 2018 hat die Pekinger Stadtregierung Pläne bekanntgegeben, ein Investitionsvolumen von 2 Milliarden US$ bereitzustellen, um im Westen der Stadt einen KI-Forschungspark zu errichten, der zudem Raum schafft für 400 Unternehmen. Es ist zu erwarten, dass weitere große Regionen ähnliche oder sogar größere Aktivitäten starten werden.

Mit Blick auf die vor uns liegenden politischen und technischen Entwicklungen ist es deshalb von größter Wichtigkeit, bei uns Systemintegrationskompetenz für KI aufzubauen und diese möglichst rasch produktiv in der Wirtschaft zu nutzen. Nur damit können wir von den zu erwartenden globalen Entwicklungen profitieren.

Aus Sicht der Forschung muss es uns jetzt darum gehen, die nächsten Schritte der KI-Entwicklung aktiv mitzugestalten, wohl wissend, dass gegen die Massierung globalen Talents nurmehr schwer anzukommen sein wird. Dennoch: wenn wir klare Prioritäten zur Nutzung der KI für unsere industriellen Strukturen setzen, können wir aus den Tatsachen Nutzen ziehen, dass die globalen Entwicklungen typischerweise als open source stattfinden werden und dass die KI-Forschung schon immer selbstverstärkend war: KI-Techniken sind immer auch Werkzeuge im Forschungsprozess, und sie verstärken damit die Produktivität der Wissenschaftler in immer größerem Maße. Klassisches Beispiel sind symbolische Gleichungslöser, heute in Form der Programme „Mathematica“ oder „Maple“ in millionenfachem Einsatz – kaum ein Ingenieur arbeitet mehr ohne sie. Gleichzeitig sind sie „Arbeitstiere“ bei der Entwicklung von Algorithmen der KI. Weitere gute Beispiele für KI als Forschungswerkzeug sind die synthetische Methodik – „Understanding by building“ (nur dann, wenn ich einen Roboter bauen kann, habe ich wirklich verstanden, wie er funktioniert und kann Hypothesen darüber aufstellen, ob und wie es bei Lebewesen funktionieren könnte) – oder die Formulierung von Hypothesen über das menschliche Kognitionsvermögen als realisierte technische Systeme – und ihre Verifizierung über praktische Versuche, deren Resultat dann möglichst nahe am beim Menschen beobachteten Verhalten liegt.

Ebenso wichtig wie eine Prioritätensetzung und die Bereitstellung einer geeigneten Forschungs-Infrastruktur sind Investitionen in die Ausbildung aktueller und künftiger Generationen von Forschern und Entwicklern. Die KI wird als Schlüsseltechnologie der Digitalisierung zukünftig ein genauso alltägliches und selbstverständliches Werkzeug wie es der PC inzwischen ist. Der Erwerb entsprechender Kompetenzen auf diesem Gebiet ist damit schon heute essentiell. Allerdings ist dieser Fortschritt keineswegs ein Selbstläufer, der nur dadurch entsteht, dass immer mehr vernetzte Rechner und Speichersysteme aufgestellt werden. Es wird vielmehr darauf ankommen, gezielt in die Spitzenforschung auf diesem Gebiet zu investieren (was leider in Deutschland in den letzten 10 bis 15 Jahren kaum der Fall war), und dabei die studentische Ausbildung nicht zu vernachlässigen. Schließlich stellen auch die Umsetzung der Ergebnisse der Forschung in praktisch einsetzbare Programme und Systeme sowie vor allem deren Integration in größere technische Einheiten enorme Herausforderungen dar.

Es ist auch klar, dass mit zunehmender Verbreitung der KI als „commodity“ sich die Ausbildungsberufe entsprechend anzupassen haben. Immerhin haben wir ja gezeigt, dass solch ein Anspruch auch hierzulande eingelöst werden kann: Deutschland hat im Bereich Industrie 4.0, also der Digitalisierung und Vernetzung der industriellen Produktion sowie der Mensch-Roboter-Kooperation, eine weltweit führende Rolle und auch bereits Nachahmer gefunden: „Made in China 2025“ in China und „Society 5.0“ in Japan – letzteres ist sogar deutlich breiter als Industrie 4.0.

Ein entscheidender Faktor zur Sicherstellung der Wettbewerbsfähigkeit der deutschen Industrie sind daher verstärkte und gezielte Investitionen in Forschung und Entwicklung, etwa die Schaffung von Kompetenzzentren, gut ausgestattete Förderprojekte, gezielte Unterstützung von Gründern sowie die Aufklärung der Öffentlichkeit über Potentiale und Grenzen der KI.

Wie erreichen wir Bedeutung und Verstehen – das nächste große Ziel der KI?

Was ist in den nächsten Jahren realistisch zu erwarten, wenn die Geschwindigkeit des Fortschritts in der KI-Forschung und ihrer Umsetzung weiter anhält oder sich auf der Basis der Interessen der großen Kapitalgesellschaften aus USA und China sogar beschleunigt?

Der nächste qualitative Entwicklungsschritt für KI-Systeme wird die Erschließung von „Bedeutung“ sein. Dazu nehmen wir noch einmal das Beispiel der Bildsuche: wenn einmal klar ist, wie eine Katze typischerweise – also in Millionen von Urlaubsbildern immer wieder ähnlich – aussieht, dann kann man ohne weiteres eine Suchanfrage „Zeig mir alle meine Urlaubsbilder, die eine Katze beinhalten“ stellen. Das Bildsuchsystem wird diese dann in kürzester Zeit zur Verfügung stellen – viel schneller als jeder Archivar.

Das heißt aber keineswegs, dass das System nun irgendeine Bedeutung mit dem menschlichen Konzept „Katze“ verbinden würde – es hat überhaupt keinen Begriff davon, was das, was es sucht, für uns als Menschen bedeutet. Deshalb sind Suchanfragen, die über reines Auffinden und Ausliefern von „ähnlichen Bildern“ hinausgehen, nicht zu beantworten. Und auch dies funktioniert nur, weil ein Mensch die Zeichenfolge „Katze“ für das System mit einem bestimmten Muster verknüpft hat. Schon eine Anfrage wie die nach „schlanken Katzen, die mehr als einen Meter hochspringen können“ ist damit nicht zu beantworten, geschweige denn eine Anfrage nach der „Katze, die mich gestern im Restaurant umschlich.“

Das wird erst möglich, wenn die Systeme nicht nur die Bedeutung eines menschlichen Konzepts wie „Katze“ mit alle seinen schwammigen Facetten verstehen („eine Katze ist ein Säugetier, das man normalerweise als freundlich wahrnimmt und das sehr geschmeidig ist, ….“), sondern insbesondere auch seine Einbettung in die Welt, wie wir sie jeweils individuell kennen (denn natürlich erlebt jeder Mensch Katzen ganz unterschiedlich). Ebenso müssen solche Systeme einen Begriff von unserer inneren menschlichen Vorstellungswelt haben, damit wir uns ihnen und sie sich uns verständlich machen können – und damit Bedeutungs- und Sinnzusammenhänge gegenseitig erklärt werden können.

Kurz gesagt: zukünftige KI-Systeme, die dem Menschen helfen sollen, müssen ein Modell unserer Vorstellungswelt haben, sie müssen sich aber ebenso uns erklären können, mit unseren eigenen Begriffen, Metaphern und Empfindungswelten.

Erst wenn sie den Sinngehalt und die Metaphorik von Texten, die Bedeutung von Beobachtungen sowie die Konsequenzen von Handlungen in einen Zusammenhang stellen und daraus nachvollziehbare Schlussfolgerungen ziehen, sinnvolle Dialoge führen sowie plausible Voraussagen für unsere Intentionen und unsere menschliche Wahrnehmung der Welt machen können, sich also im Wortsinne einen Begriff von unserer Welt machen können, wird die KI überall präsent sein.

Was nun getan werden, um nun aber zu „verstehenden“ und in der Folge auch selbst-adaptierenden Systemen zu kommen?

Die Antwort ist vordergründig einfach und gleichzeitig vermutlich das schwierigste Unterfangen, das man sich vorstellen kann: zum einen braucht man auf der methodischen Seite ein wesentlich besseres Verständnis von menschlichen Formen von Intelligenz, um daraus neue abstrahierte Modelle und Methoden für die KI ableiten zu können.

Für die praktische Seite gilt: „Alles muss in den Computer.“ Jegliche KI ist in einem Rechner und kann nur auf den Daten arbeiten, die ihr auf diesem Rechner – in diesem Raum – zur Verfügung stehen. Wenn wir nun erwarten, dass eine KI plausible und nachvollziehbare Antworten auf Fragestellungen findet, die mit unserer menschlichen Welt zu tun haben, muss sie diese Welt in einer für sie lesbaren Form zu Verfügung gestellt bekommen. Das heißt nichts weniger, als dass unsere Welt virtualisiert werden muss – zumindest in dem Rahmen, in dem eine spezifische KI arbeiten soll: alle in diesem Rahmen befindlichen lebenden und toten Objekte mit ihren Eigenschaften und Beziehungen, alles Wissen über ihre Entwicklung, ihr Verhalten, ihre inneren oder auch mentalen Zustände und deren Wechselwirkung mit den anderen Objekten und Lebewesen sind in dieser virtuellen Welt nachzubauen, d.h. durch geeignete Modelle zu repräsentieren. Wichtig ist hierbei, dass diese Modelle zunächst weder exakt noch vollständig sein müssen – denn eine solche Anforderung wird auf absehbare Zeit kaum umsetzbar sein. Vielmehr ist entscheidend, dass die für die jeweilige Anwendung wesentlichen Faktoren hinreichend genau repräsentiert werden. Diese Faktoren müssen – ähnlich wie beim Menschen – ständig geprüft und gegebenenfalls adaptiert oder erweitert werden.

Man spricht hier auch von der Konstruktion eines digitalen Zwillings – er spiegelt alles im Rechner, was sich in der Außenwelt abspielt; er ist das Abbild unserer Welt für die im Rechner gefangene KI. Diese Modelle müssen wie beschrieben laufend durch Interaktion mit der realen Welt aktualisiert und vervollständigt werden, über eigene Sensorik oder über die Cloud – und: je detaillierter die Modelle, desto größer der Aufwand für dieses Aktualisieren und Vervollständigen. Diese Virtualisierung ist natürlich keine KI an sich, aber dennoch Voraussetzung, um die KI mit den Konzepten unserer realen Welt zu verbinden und sie damit für uns relevant werden zu lassen.

Wo eröffnen sich Anwendungsfelder moderner KI?

Heute haben wir die Einsatzreife von Systemen erreicht, die aus ihnen in großer Zahl präsentierten Datensätzen automatisch Muster identifizieren und sich dann lernend so adaptieren können, dass sie diese Muster auch zuverlässig in solchen Datensätzen oder -strömen erkennen, die ihnen während der Lernphase nicht gezeigt wurden. Dabei kann die Lernphase der späteren Anwendungsphase vorausgehen und mit Eintritt der letzteren beendet sein, oder aber es kann während der Anwendungsphase auch mit wählbarer Plastizität weitergelernt werden. Deep-Learning-Systeme bauen während der Lernphase innere Abstraktionen auf, die es ihnen ermöglichen, Muster und Zusammenhänge zu erkennen, die über das hinausgehen, was ein Mensch in der Lage wäre zu leisten – einfach deshalb, weil sehr viel mehr Material pro Zeiteinheit verarbeitet werden kann. Damit können Fragestellungen aus dem Umfeld „Big Data“ bearbeitet werden, die mit klassischen Methoden des starren Vergleichs von Suchmustern mit einem neuen Datensatz nicht zu lösen wären – beispielsweise Suchen nach Bildern oder ganzen Büchern ähnlichen Inhalts wie ein vorgelegtes Buch, Erkennung von Mustern in Serien von Wohnungseinbrüchen und Vorhersage von Einbrüchen, Analyse von Maschinengeräuschen auf sich andeutende Defekte hin, Optimierung von Ressourcenvergaben in Mobilfunknetzen, Wiedererkennung von Verkehrsschildern. Diese Liste lässt sich schon heute mit real existierenden Systemen im Praxiseinsatz beliebig fortsetzen.

Von neuer Qualität hingegen ist die Verbindung dieser Verarbeitungsmethoden mit Sensorik im Echtzeitbetrieb wie beispielsweise zur automatischen schritthaltenden Analyse der großvolumigen Videoströme von Überwachungs-Kameras im öffentlichen Raum. Damit kann nicht nur eine bestimmte Person automatisch identifiziert werden, was ja schon seit längerem möglich ist, sondern man wird auch Handlungsfolgen präzise analysieren können, etwa um zu erkennen, dass sich eine Gewalttat andeutet. Ein spezifisch deutscher Beitrag könnte hier die Untersuchung der Frage sein, wie eine derartige Kognitionsleistung unter Einhaltung deutscher Datenschutzrichtlinien und unter dem Gebot der „Datensparsamkeit“ zu realisieren ist. Gleiches gilt für die Verwendung von KI-Methoden im potentiell unerschöpflichen Gebiet der Anwendung von KI im Bereich der Gesundheit: häusliche Unterstützung durch permanente Überwachung, on-line Datenaufnahme an Personen und Erzeugung von textuellen Empfehlungen für deren Verhalten, Unterstützung von Ärzten bei der Befundung bis hin zur Operationsplanung und Teildurchführung.

Weniger spektakulär, aber dennoch zweifellos sehr nützlich sind Systeme, die Echtzeit-Daten von Sensoren an Flüssen, Autobahnen, Kraftwerken oder Hochhäusern zur Bestimmung, adaptiven Prädiktion und assoziativen Interpretation von Umweltparametern – Sauerstoffgehalte, Feinstaubbelastung, Temperatur etc. – auswerten können. Weitere Felder, die am Horizont schon deutlich zu erkennen – und Gegenstand aktiver Forschung – sind kann man wie folgt identifizieren:

  • Embedded Artificial Intelligence in der Produktion zum Aufbau „kognitiver“ Fabriken: hier geht es um die Verbindung von (kleinen) eingebetteten Rechnersystemen mit KI-Methoden zur automatischen Strukturierung von Prozess- und Domänenwissen für autonome Re-Konfiguration von Betriebsmitteln, verteilte Optimierungen von Materialflüssen, Diagnose und Prädiktion mit Hilfe von verteilter Intelligenz in sich selbst zusammenschaltenden und „Schwarmintelligenz“ entwickelnden IoT-Geräten.
  • Embodied Intelligence als Zusammenführung von Robotik, Human-Machine-Interfaces und maschinellem Lernen. Anwendungen sind beispielsweise deutlich verbesserte, mit einem künstlichen Kopf oder Körper versehene Frage-Antwort-Systeme, interaktive Visualisierungssysteme mit echtzeit-Verhalten, intuitiv instruierbare kognitive Roboter.
  • Transportwesen/Logistik mit automatisierten Transportmitteln in Logistikketten zur übergeordneten Optimierung unter intelligenter unter dynamischer Bedarfsprädiktion. Die Verbindung zu „Smart Cities“ und zu zentralen „Smart City Brains“ in „taktilen Städten“ ist offensichtlich und wünschenswert, in Deutschland ist man an dieser Stelle bislang zurückhaltend. Immerhin sind wir aber in der Logistik nach wie vor weltweit führend, und diese Stellung sollte mit KI verteidigt und ausgebaut werden.

Zusammenfassung

Die modernde KI ist eine Technologie, die zu einem enormen Produktivitätswachstum in der digitalisierten Wirtschaft der Zukunft beitragen wird. Ob sie mit natürlicher menschlicher Intelligenz in Verbindung gebracht werden kann oder nicht, ist nicht wichtig – möglicherweise sogar abschreckend. Sie stellt aber einen – wenn nicht gar den wesentlichen – Technikbaukasten zur Verfügung, wie er seit langem gesucht wird, um nach einer langen Phase schwindender Produktivitätszunahme erneut Wachstum wie zu Zeiten der Einführung der Eisenbahn, der Telefonie und des Flugverkehrs zu erzielen.

Wir sollten als Europäer die sich bietenden Chancen für unsere Industrien und Wirtschaft erkennen und mutig ergreifen und deshalb die Entwicklung gemäß unserer kulturellen Erfahrung proaktiv gestalten!

Prof. Dr.-Ing. habil. Alois C. KnollProf. Dr.-Ing. habil. Alois C. Knoll, Lehrtstuhlinhaber für Echtzeitsysteme und Robotik, Technische Universität München