„Das TÜV AI Lab wird einen wichtigen Beitrag dazu leisten, Künstliche Intelligenz sicherer zu machen und ihre Nutzung in sicherheitskritischen Bereichen zu ermöglichen“, sagte Dr. Dirk Stenkamp, Präsident des TÜV-Verbands (VdTÜV). Hierzu zählen beispielsweise automatisierte Fahrzeuge, Assistenzsysteme in der Medizin oder mobile Roboter. Darüber hinaus sollten KI-Systeme bestimmte Anforderungen erfüllen, wenn elementare Grundrechte wie Privatsphäre oder Gleichbehandlung in Gefahr sind. „Mit der Entwicklung geeigneter Prüfverfahren begleiten wir die angestrebte Regulierung von Künstlicher Intelligenz und liefern praktische Anwendungsbeispiele“, sagte Stenkamp. So hat die EU-Kommission Vorschläge eines europäischen Rechtsrahmens für KI-Systeme im „Weißbuch Künstliche Intelligenz“ zusammengefasst. Demnach sollen künftig Sicherheitskriterien für „KI-Anwendungen mit hohem Risiko“ festgelegt werden. In der Wirtschaft gibt es eine breite Zustimmung für die Regulierung von KI. Laut einer repräsentativen TÜV-Studie sind 87 Prozent der Unternehmen ab 50 Mitarbeitern in Deutschland der Meinung, dass KI-Anwendungen in Abhängigkeit von ihrem Risiko reguliert werden sollten.
Im „TÜV AI Lab“ werden KI-Expert:innen aus den TÜV-Organisationen an praktischen Prüfszenarien arbeiten. So könnten die KI-Prüfer:innen zum Beispiel ermitteln, wie sicher automatisierte Fahrzeuge mit KI–Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren. Dabei spielen sowohl Performanz als auch Aspekte der Cybersecurity und der Robustheit von KI eine wichtige Rolle. Eine entsprechende Prüfung sollte in Zukunft Voraussetzung für die Zulassung neuer Fahrzeuge sein. „Künstliche Intelligenz ist komplex und kann sich dynamisch verhalten“, sagte Dr. Dirk Schlesinger, Leiter des TÜV AI Labs. „Also können wir bestehende Prüfansätze nicht einfach übertragen, sondern müssen neue Testmethoden entwickeln.“ Dabei finden auch die Daten Berücksichtigung, mit denen Algorithmen trainiert werden. Beispielsweise können die Trainingsdaten eines KI-Systems für die Personalauswahl zu einer Benachteiligung bestimmter Personengruppen führen, wenn die Daten nicht ausgewogen sind. Schlesinger: „Das TÜV AI Lab wird Kriterien entwickeln, wie die Eignung von Trainingsdaten für bestimmte KI-Anwendungen beurteilt werden kann.“
Ein weiteres Ziel des TÜV AI Labs ist die Entwicklung von Lösungsansätzen für die Einteilung von KI-Anwendungen in Risikoklassen. „Nicht alle KI-Systeme müssen die gleichen Anforderungen erfüllen“, sagte Schlesinger. Daher sollten KI-gestützte Systeme nach ihrem Gefährdungspotenzial reguliert werden. Die Anforderungen könnten von einem vollständigen Regulierungsverzicht über Transparenzpflichten und Zulassungsverfahren vor der Markteinführung bis zu einem Verbot besonders gefährlicher oder ethisch fragwürdiger KI-Anwendungen reichen. Die EU-Kommission hat zwei Risikoklassen (niedriges und hohes Risiko) vorgeschlagen, während die Datenethikkommission der Bundesregierung für fünf Stufen plädiert. Schlesinger: „Die Frage ist, wie viele Risikoklassen tatsächlich sinnvoll sind und nach welchen Kriterien KI-Systeme den einzelnen Klassen in der Praxis zugeordnet werden können.“ Auch damit werde sich das TÜV AI Lab beschäftigen, das im ersten Quartal 2021 seine Arbeit aufnehmen wird.
Weitere Informationen wie das Positionspapier „Sicherheit KI-gestützter Anwendungen“ und die Studie „Künstliche Intelligenz in Unternehmen: Chancen nutzen – Risiken begegnen“ finden Sie hier.