KI als Enabler?

Prof. Dr. Alexander Löser, Sprecher des Forschungszentrums Data Science, Beuth Hochschule für Technik, Berlin

Immer mehr europäische Unternehmen wollen auf neuen Wettbewerb aus Asien oder Nordamerika reagieren oder müssen neue Kundengruppen erschließen. Oft ist der eigene Kernmarkt jedoch bereits hoch optimiert. Und selbst kleine Verbesserungen, die eventuell neue Kunden anlocken würden, sind mit hohen Aufwänden verbunden.

Kosteneinsparungen und Preissenkungen sind eine andere (oft eher riskante) Möglichkeit, in einem Verdrängungsmarkt Kunden zum Wechsel zu bewegen. Künstliche Intelligenz scheint hier eine Lösung zur Kundengewinnung bzw. Schaffung eines Mehrwerts für eigene Produkte zu sein: Ein existierendes hoch optimiertes Produkt oder eine Dienstleistung erhält einen wichtigen Zusatznutzen durch ein Datenprodukt, das der Kunde gern vom vertrauten und etablierten Partner kauft oder mietet.

Ist das alles neu?

Ich denke, nein. So wie die Elektrizität vor 100 Jahren die Welt verändert hat, wird künstliche Intelligenz viele Aspekte unseres Privatlebens und unserer Arbeit verändern. Damals war Elektrizität kompliziert: Manager mussten Entscheidungen fällen, ob und wo sie investieren, die Produktion umbauen und die Prozesse verändern sollten. Diejenigen Unternehmen, die drastische Veränderungen in der Werkhalle zeitnah umsetzten, konnten deutlich preiswerter produzieren und stachen über die Zeit selbst etablierte aber eher veränderungsschwache Riesen im Preiskampf aus bzw. konnten deren Kunden für sich gewinnen. Immer mehr Unternehmen aus eher klassischen deutschen Branchen fragen sich daher auch am Standort Deutschland:

Wie können auch wir vom Thema „Künstliche Intelligenz sowie von Datenprodukten“ profitieren? Die Beantwortung dieser Frage ist nicht leicht. Grundsätzlich geht es um die Identifikation von Wertschöpfungsprozessen, die mittels exklusiver Informationen aus Daten optimiert werden können. Hier seien nur einige Beispiele genannt:

Der Markenschutz aus dem Web: Wer benutzt widrig meine Marke? Eine Datenanalyse liefert hier eine geordnete und möglichst vollständige Liste von Verstößen und kann gezielt für die „schlimmsten“ Fälle rechtliche Schritte einleiten.

Das Supply Chain Management: Unternehmen können derzeit nicht immer vorhersehen, welche Partner in der Lieferkette demnächst ausfallen könnten. Zusätzliche Signale –  aus dem Web, aus News, aus Berichten – können die Entscheidungen des Supply Chain Managements so unterstützen, dass es vor seinen Mitbewerbern reagieren und frühzeitig ein anderes Unternehmen für die Zusammenarbeit gewinnen kann.

Predictive Maintenance: Die Vorhersage des Ausfalls einer Maschine oder eines teuren und wartungsintensiven Geräts hilft Kosten sparen und ermöglicht den Aufbau neuer Geschäftsmodelle. Kann der Käufer des Geräts Wartungsintervalle gut vorhersagen, wird die Laufzeit der Maschine erhöht. Noch besser, Maschinenhersteller könnten eventuell über alternative Geschäftsmodelle nachdenken, bei denen sie Garantien und Laufleistungen an Kunden verkaufen. Die Preise dafür können sehr genau abgeschätzt werden, aus Daten, Feedbackloops von der aktuellen Maschine und zusätzlichen Signalen aus Maschinen, die bei anderen Kunden in ähnlichen Prozessen belastet werden. Den Preiskampf gewinnt derjenige, der am besten für seine Kunden die Abschätzung liefert und dennoch Gewinn macht. Letzten Endes geht es dabei oft um das Verstehen der Kunden (deren Prozesse und Wünsche etc.) und den Aufbau von Kundenprofilen, um Datenprodukte möglichst passgenau zu zuschneiden mit dem Ziel, Kunden zu gewinnen und zu binden

Enabler Deep Learning

Mit dem Forschungszentrum Data Science an der Beuth-Hochschule für Technik in Berlin haben wir das Glück mit vielen CxOs und Bereichsleitern – sowohl von etablierten Riesen als auch Startups – zu sprechen und auf neutralem Territorium der Hochschule Vernetzungen herzustellen. Wir arbeiten aktuell z.B. mit Zalando, SpringerNature oder mobile.de sowie mit der Charité und erfolgreichen Startups im Bereich der Medizinanwendungen. Unser DATEXIS.COM Team (Databases and Text based Information Systems) begleitet auch zahlreiche Startups im Bereich Deep Learning, Text-Mining oder Datenplattformen und hilft beim Einwerben von Seed-Kapital.

Ein wichtiger „Enabler“ für unsere Grundlagenforschung mit Praxispartnern ist Deep Learning. Uns gefällt hier besonders die Möglichkeit der Datenintegration aus Bildern, Texten und Tabellen in eine einheitliche Repräsentation, die auch noch schnell über geeignete Indexstrukturen für hochdimensionale Räume angefragt werden kann. Diese integrierte Repräsentation rekombiniert unterschiedliche Signale aus der Welt des Kunden und erlaubt auch Dialog orientierte Anfragen in menschlicher Sprache, via Chatbots.

KI-Technologien lernen oft aus der ‘klugen’ Beobachtung der realen Welt. Als KI-Forscher sollten wir daher sehr sorgfältig Daten aus der „richtigen“ Welt herausschneiden, möglichst ohne gefährlichen Bias und möglichst mit Korrelationen in den Daten, die unsere Werteordnung in Deutschland unterstützen und nicht gefährden. Das richtige Sampeln, das kluge Design von Feedback-Loops und die Simulation solcher Daten sehe ich als wichtige technische aktuelle Trends an. Anreize der Politik zum Sharen und Bezahlen mit Daten als Kapital des 21. Jahrhunderts sind eine wichtige Herausforderung für unsere Gesellschaft in den nächsten fünf bis zehn Jahren.

Prof. Dr. Alexander LöserÜber den Autor. Alexander Löser leitet das Forschungszentrum Data Science an der Beuth-Hochschule für Technik. Sieben Professoren und zahlreiche Doktoranden arbeiten mit Unternehmen an Grundlagenforschung, die schnell in der Praxis angewendet werden kann. Der Schwerpunkt seines Teams DATEXIS.COM liegt im Bereich Textdaten und Deep Learning. Er berät zahlreiche Unternehmen, das BMWi und die EU.