Künstliche Intelligenz, Lernende Systeme und die IT-Sicherheit


Lernende Systeme werden helfen, Angriffe auf die IT zu erkennen. Gleichzeitig sind sie ein mögliches Einfallstor für neue Bedrohungen, erklärt Prof. Dr. Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) in seinem Beitrag „Künstliche Intelligenz, Lernende Systeme und die IT-Sicherheit”.

Dieser Artikel ist Teil des aktuellen
Handelsblatt Journals Cyber Security,
das Sie sich hier herunterladen können.

Jetzt das Handelsblatt Journal herunterladen

Lernende Systeme werden helfen, Angriffe auf die IT zu erkennen […]. Gleichzeitig sind sie ein mögliches Einfallstor für neue Bedrohungen.“

Künstliche Intelligenz (KI) und Lernende Systeme werden unser Leben nachhaltig verändern – wie wir mit Computern umgehen, wie wir uns fortbewegen und wie wir arbeiten. Sie ermöglichen etwa autonome Verkehrssysteme, verbessern die medizinische Diagnostik oder unterstützen bei Routineaufgaben in der Sacharbeit und Verwaltung. Voraussetzung: Es ist gewährleistet, dass die Systeme stets verlässlich funktionieren und sicher vor Angriffen sind.

Die Auswirkungen von KI auf die IT-Sicherheit ist eine von vielen offenen technischen, ethischen und rechtlichen Fragen, die einen breiten gesellschaftlichen Dialog über Chancen und Risiken von KI erfordern. Das Bundesministerium für Bildung und Forschung (BMBF) hat deshalb 2017 auf Anregung des Hightech-Forums Autonome Systeme und acatech – Deutsche Akademie der Technikwissenschaften die Plattform Lernende Systeme gegründet Sie soll die Folgen künftiger KI-Systeme abschätzen, damit unsere Wirtschaft, Gesellschaft und Politik Künstliche Intelligenz im Sinne der Menschen gestalten können. Der Fokus liegt dabei auf der KI-Technologie der näheren Zeit, einem Zeithorizont von etwa fünf Jahren.
Ein zentrales Thema der Plattform Lernende Systeme ist die IT-Sicherheit und die Frage, wie künftige KI-Systeme die IT-Sicherheit verändern werden. Auf der einen Seite wird KI die IT-Sicherheit erhöhen. KI-Verfahren kommen bereits in vielen heute verfügbaren IT-Sicherheitsprodukten zum Einsatz. Sie spüren Anomalien im System auf, die auf einen Angriff hindeuten. Eine selbstlernende Anomalieerkennung wird in Zukunft verdächtigen Netzwerk-Traffic oder andere Vorkommnisse verlässlicher als Angriff erkennen können, als Systeme, die festen Regeln folgen. Eine KI-Angriffserkennung wird einen maßgeschneiderten Schutz bieten, nachdem das System einige Zeit das Normalverhalten gelernt hat. Auch die Fähigkeit von KI-Systemen Muster und Regelmäßigkeiten zu entdecken, die sogar von Menschen übersehen werden, wird die IT-Sicherheit verbessern. So können Lernende Systeme in Zukunft präzise Spam erkennen oder vor verdächtigen Inhalten in E-Mails warnen.

Andererseits entstehen durch KI neue Bedrohungen für die IT-Sicherheit. Auch Cyberkriminelle werden KI-Systeme nutzen und als effektive Mensch-Maschine-Teams IT-Systeme angreifen. Hier werden zwei Effekte zu beobachten sein: Erstens eine enorme Zunahme von Vorfällen, weil Angriffe, die bisher Menschen durchführen, automatisiert werden und zweitens das Auftreten völlig neuer Angriffe, die bislang undenkbar waren.

Besonders große Veränderungen sind beim Social Engineering zu erwarten. Social Engineering ist ein Angriff, bei dem Menschen so getäuscht werden, dass sie dem Angreifer freiwillig helfen. Will man etwa in ein Gebäude, zu dem man eigentlich keinen Zutritt hat, so kann man sich mit zwei Bechern Kaffee, also „allen Händen voll“, vor den Eingang stellen und darauf warten, dass einem ein hilfsbereiter Mensch die Tür öffnet. Ein Passwort einer Zielperson kann man, mit verhältnismäßig hoher Wahrscheinlichkeit, ausspionieren, indem man sich am Telefon als Mitarbeiter der IT-Sicherheit ausgibt, der in diesem Moment einen schlimmen Angriff entdeckt habe, zu dessen Abwehr das Passwort dringend benötigt werde. Die allermeisten Social Engineering-Angriffe sind Phishing-Manöver, das heißt der Angreifer fälscht eine E-Mail eines vertrauenswürdigen Absenders und bringt den Empfänger dazu, auf einen schädlichen Inhalt zu klicken, den man für eine Rechnung oder eine Bewerbung hält.

Beim Social Engineering wird vor allem der Skaleneffekt künftiger KI-Systeme zum Tragen kommen: Benötigt man bislang Menschenkenntnis und Hintergrundwissen, um beispielsweise eine Phishing-Mail an den Stil des Absenders anzupassen und so zu tarnen, werden diese Angriffe in Zukunft automatisiert und dennoch gleichzeitig maßgeschneidert sein. KI-Systeme können eingesetzt werden, um gezielt online verfügbare Informationen zu extrahieren, die dazu genutzt werden, Websites, Links oder E-Mails auf die Zielpersonen einer Attacke zuzuschneiden. Das Google Duplex System, das am Telefon wie ein Mensch wirkt und beispielsweise Restaurantbuchungen vornehmen kann, führt plausibel vor Augen, dass auch Social Engineering über das Telefon automatisiert werden kann. Deepfake Videos, die mit KI-Systemen prominenten Sprechern völlig neue Worte in den Mund legen, zeigen, dass man sogar einer Videoverbindung nicht mehr trauen kann. Lernende Systeme können sich in Zukunft Hintergrundwissen eigenständig aneignen und Social Engineering, eine der erfolgreichsten Angriffsarten, zu einem Massenphänomen machen.

Auch viele andere Angriffsarten werden durch KI-Systeme effektiver. So könnten KI-basierte Distributed Denial of Service-Angriffe in Zukunft größeren Schaden anrichten. Dabei handelt es sich um Angriffe, bei denen viele gehackte Rechner einen Ziel-Server mit Anfragen überfluten, bis dieser zusammenbricht. KI-Systeme lernen aus Fehlern und Erfolgen der Vergangenheit und verbessern mit jedem Angriff ihre Taktik.

An dieser Stelle sei der “dual-use”-Charakter von KI-Systemen betont. Sie können Angriff e-automatisiert und effektiver durchführen. Gleichzeitig kann diese Fähigkeit auch genutzt werden, um die Sicherheit von Systemen automatisiert und ausgiebiger zu testen.
Dieser dual-use-Charakter wird auch Auswirkungen in der Kryptographie haben und dort einerseits neue Angriffe, andererseits effektiveres Testen der Verschlüsselungsverfahren ermög-lichen. Verschlüsselungsverfahren und digitale Signaturen können Ziel sogenannter Seitenkanalangriffe werden. Dies sind Angriff e, die die spezifische Implementierung des Verfahrens ausnutzen, um beispielsweise über das Zeitverhalten, den Stromverbrauch oder elektromagnetische Abstrahlung Geheimnisse zu erfahren, die gerade verarbeitet werden. Ein typisches Beispiel ist der Versuch aus einer Chipkarte den geheimen Schlüssel zu extrahieren, indem man sie mehrfach mit verschiedenen Daten benutzt und den Stromverbrauch beobachtet. Da der Stromverbrauch von den verarbeiteten Daten abhängt, kann der geheime Schlüssel aus diesen Stromverbrauchsdaten herausgelesen werden, wenn keine geeigneten Gegenmaßnahmen ergriffen wurden. KI-Systeme können in kurzer Zeit riesige Datenmengen durcharbeiten. So könnten sie Angreifern helfen, geheime Daten aus großen Mengen von Messdaten zu extrahieren.

Die KI-Systeme können auch selbst das Ziel von Angriff en werden. Selbstlernende Systeme sind eine Art „black box”, ihre Prozesse und Entscheidungen für Menschen häufig nicht mehr nachvollziehbar. Der Schutz von KI-Systemen ist deshalb besonders schwierig. Hinzu kommt, dass Lernende Systeme sich laufend verändern und an ihre Umgebung anpassen. Sie nutzen verschiedene Datenquellen für die Erkennung von Objekten und die Vorhersage von Ereignissen, wie zum Beispiel Sensordaten in autonomen Fahrzeugen. Diese Daten können böswillig manipuliert werden und zu Fehlentscheidungen und falschen Vorhersagen der KI führen. Weil KI-Systeme anders funktionieren als menschliches Erkennen, können leicht modifizierte Verkehrsschilder beispielsweise als völlig andere Schilder klassifiziert werden. Solche Täuschungen KI-gesteuerter Fahrzeuge können Verkehrsunfälle zur Folge haben. Die IT-Sicherheit muss also gewährleistet sein, um beispielsweise das autonome Fahren sicher zu gestalten.

Lernende Systeme werden also helfen Angriffe auf die IT zu erkennen, Systeme gegen Angriffe zu härten und Sicherheitstests zu automatisieren. Gleichzeitig sind sie ein mögliches Einfallstor für neue Bedrohungen. Die Plattform Lernende Systeme wird zum Digital-Gipfel der Bundesregierung am 3. und 4. Dezember 2018 erste Lösungsansätze vorstellen, wie mit diesen neuen Möglichkeiten und Risiken für die IT-Sicherheit umgegangen werden kann. Eines ist klar: Die IT-Sicherheit muss Lernende Systeme berücksichtigen, sowohl als potentielle Angreifer als auch verwundbare Stelle in den IT-Systemen der Zukunft. Schutz vor diesen Bedrohungen bietet nur ein wissenschaftlicher, systematischer Zugang zur IT-Sicherheit, der auch KI nutzen wird.

Der  Autor

Lernende SystemeProf. Dr. Jörn Müller-Quade ist Inhaber des
Lehrstuhls für IT-Sicherheit am Karlsruher
Institut für Technologie (KIT) und leitet die
Arbeitsgruppe „IT-Sicherheit und Privacy“
der Plattform Lernende Systeme