KI-Regulierung als gesamtgesellschaftliche Aufgabe

KI-Regulierung als gesamtgesellschaftliche Aufgabe

ADVERTORIAL
von Dr. Dirk Schlesinger

Eine Risikobeurteilung von KI wird nicht nur politisch gefordert, sondern auch von Verbraucher:innen und Herstellern. So ergibt eine Befragung des TÜV-Verbands aus dem Jahr 2020, dass 90 % der befragten Unternehmen gesetzliche Regelungen fordern, um Haftungsfragen zu klären. 87 % wünschen sich, dass KI-Anwendungen in Abhängigkeit von ihrem Risiko reguliert werden sollten. Gleichzeitig sollen gesetzliche Regelungen Innovationen beschleunigen, da das damit geschaffene Vertrauen in KIAnwendungen erst zur deren Nutzung führt.

Aber was soll nun reguliert werden?
Klar ist: Je höher das Risiko eines KI-Systems, desto höhere Anforderungen müssen an dessen Qualität gestellt und desto stringenter soll geprüft werden. Prüfverfahren und Akzeptanzkriterien ergeben sich also aus einer risikobasierten Einstufung von KI-Systemen. Die Europäische Kommission hat dieses Frühjahr in ihrem weltweit ersten Entwurf für einen KI-Rechtsrahmen solch einen Ansatz gewählt und vier Risikoklassen definiert: unannehmbar, hoch, gering und minimal.

Konkrete Einordnung und Prüfung komplex und noch zu detaillieren
Sofern ein KI-System sicherheitsrelevant für ein Produkt ist, welches bereits einer Konformitätsprüfung durch einen unabhängigen Dritten unterliegt, wie bspw. Medizinprodukte, ist die Einordnung einfach – die Risikoklasse ist „hoch“. Wie sind jedoch andere KI-Systeme einzustufen, bei denen die KI-Komponente zum sicherheitskritischen Bestandteil werden kann, oder das Gesamtsystem aus rechtlichen, ethischen oder gesellschaftlichen Gründen als riskant einzustufen ist? Wie genau sehen diese Prüfpflichten in den verschiedenen Risikoklassen aus? Dafür noch zu erarbeiten sind konkrete Prüfverfahren, -werkzeuge und Akzeptanzkriterien – eine gemeinsame Aufgabe für Industrie, Forschung, Prüfunternehmen sowie Politik und Gesellschaft.

Einbindung von Politik und Gesellschaft notwendig
Der von der EU-Kommission bei der Zuordnung von KISystemen auf Risikoklassen verwendete Risikobegriff unterscheidet sich von den Risiken für Leib und Leben, wie sie z. B. bei der Zulassung von Autos bekannt sind. Er umfasst weitere Risiken, wie solche für Vermögenswerte oder die Umwelt, aber auch rechtliche, ethische und gesellschaftliche Risiken. Damit ergibt sich die Frage der Vergleichbarkeit und Gewichtung verschiedener Risiken, um sie in einer Risikoklasse zusammenfassen zu können – eine Aufgabe, die Techniker allein nicht lösen können.

KI-Entscheidungen ausweichen oder revidieren
Weiterhin wird eine vollständig neue Risikodimension eingeführt, nämlich die „Einschränkung der Handlungsfreiheit des Menschen“ durch KI-Systeme. Trifft eine KI zum Beispiel Personalentscheidungen oder gibt es nur einen Anbieter für KI-Systeme für die Übersetzungen von Texten bei Gericht, ist die Abhängigkeit des Menschen von diesen KI-Entscheidungen sehr hoch, mitunter existenziell. Dabei geht es nicht nur um „Controllability“ – also die Möglichkeit, durch menschlichen Eingriff auf ein KI-System den Eintritt eines Risikos zu beeinflussen. Dies ist einfach zu erreichen, indem ein menschlicher Letztendscheider die Entscheidungen einer KI validiert – zum Beispiel ein Radiologe die von einer KI entdeckten Anomalien auf einem Röntgenbild. Vielmehr geht es um „Human Control“: Die Möglichkeiten des betroffenen Menschen, sich einer KI-Entscheidung zu entziehen, diese in Frage zu stellen, bzw. die Folgen einer KI-Entscheidung rückabwickeln zu können.

KI-Regulierung geht nur mit Technik und Ethik
KI-Regulierung hat eine technische Komponente: Performanz, Robustheit, sogar der Bias in Trainingsdaten lassen sich messen, quantitativ erfassen und bewerten. KI-Systeme entscheiden jedoch und greifen damit weiter in unsere Lebenswirklichkeit ein, als es andere Technologien zuvor getan haben. Folglich ist deren (Risiko-) Bewertung keine alleinige Frage für Techniker oder Prüfunternehmen. Vielmehr sind Politik, Gesellschaft, Wissenschaft, Hersteller, Verbraucher:innen gemeinsam gefragt – nur dann erreichen wir das Ziel, das Vertrauen in KI-Systeme zu stärken und hohe Standards als Voraussetzung dafür zu verankern, dass KI dem Menschen dient.

Es geht um „Human Control“: Die Möglichkeit des Menschen, sich einer KI-Entscheidung zu entziehen bzw. diese rückabwickeln zu können.

Dr. Dirk Schlesinger, Chief Digital Officer, TÜV SÜD, und „Head of it all”, TÜV AI.Lab

TÜV SÜD

www.tuvsud.com/de

Dieser Artikel ist im aktuellen Handelsblatt Journal „Künstliche Intelligemz“ erschienen.

Das vollständige Journal können Sie sich hier kostenlos herunterladen:

Zum Journal