Systeme künstlicher Intelligenz (KI) sind bereits heute Bestandteil unseres täglichen Lebens, deren Bedeutung in Zukunft aller Wahrscheinlichkeit nach weiter zunehmen wird. Machine- und Deep Learning-Algorithmen sind dabei Kerntechnologien, welche die Grundlage für immer mehr Anwendungen darstellen. Anders als bei klassischer Software ist dabei nicht immer einfach nachvollziehbar, wie die Algorithmen zu den ausgegebenen Ergebnissen kommen. Damit die Nutzung von KI-Systemen allgemein akzeptiert wird, ist Vertrauen sowohl in die von der KI produzierten Ergebnisse als auch die Art und Weise, wie diese Ergebnisse erzielt wurden, notwendig. Vertrauen ist damit eine Funktion der Erfüllung von Kriterien funktionaler Sicherheit, aber beispielsweise auch der informationellen Selbstbestimmung, der Einhaltung ethischer Standards oder um gesellschaftlich erwünschte Ziele zu erreichen.
Risikobeurteilung von KI
Eine Risikobeurteilung von KI wird nicht nur politisch gefordert, sondern ist im Interesse von Verbraucher:innen sowie Herstellern. So ergibt eine Unternehmensbefragung des TÜV-Verbands vom Oktober 2020, dass 90 Prozent der befragten Unternehmen gesetzliche Regelungen fordern, um Haftungsfragen zu klären. 87 Prozent wünschen sich, dass KI-Anwendungen in Abhängigkeit von ihrem Risiko reguliert werden sollten und 84 Prozent, dass Produkte und Anwendungen mit KI für die Nutzer:innen klar gekennzeichnet werden. Gleichzeitig fordern sowohl etablierte Unternehmen als auch Startups, dass eine KI-Regulierung nicht innovationsverhindernd sein darf und keine parallellaufenden Regelwerke geschaffen werden sollen. Stattdessen sollen gesetzliche Regelungen im Idealfall Innovationen ermöglichen, da das damit geschaffene Vertrauen in KI-Anwendungen erst zur Nutzung führt. Letztendlich gibt es Stimmen, die argumentieren, dass eine proaktive Regulierung Entwicklungen zu vermeiden hilft, die nicht mit dem europäischen Wertekanon vereinbar sind, wodurch wettbewerbliche Differenzierung für KI „Made in Europe“ ermöglicht wird.
Der Vorschlag der EU-Kommission zur Schaffung des weltweit ersten rechtlichen Rahmens für sichere und vertrauenswürdige KI geht in diese Richtung. Aus Sicht des TÜV-Verbands ist der vorliegende Regelungsentwurf jedoch nicht hinreichend ambitioniert und bleibt hinter dem eigenen Anspruch der EU-Kommission zurück, ein „Ökosystem für Vertrauen“ zu schaffen. Vorschläge für Nachbesserungen hat der TÜV-Verband daher im August 2021 formuliert. Davon unabhängig bedarf die Risikoklassifizierung einer detaillierteren Operationalisierung. Derzeit werden die Risikoklassen primär anhand von Beispielen (z.B. Social Scoring, Gesichtserkennung) definiert. Notwendig ist jedoch eine allgemein anwendbare und vorab bekannte Systematik zur Definition von Risikoklassen sowie zur Zuordnung von KI-Anwendungen in diese Risikoklassen.
Risikoklassifizierung von technischen Systemen
Bei der Entwicklung einer solchen Systematik ist zu berücksichtigen, dass der Begriff „Risikoklasse“ oft unterschiedlich verstanden wird. Eine Risikoklassifizierung von technischen Systemen erfolgt über Standards, wie sie beispielsweise in der funktionalen Sicherheit verwendet werden, sowie auf Basis einer systematischen, semiquantitativen Risikoanalyse und Risikobeurteilung. Abhängig von den Ergebnissen dieser Analyse wird das betrachtete technische System in je nach Industriedomäne definierte, vier bis fünf „Sicherheitsanforderungsstufe“ eingeteilt, mit denen die Sicherheitsanforderungen an das System beschrieben werden.
Der Gesetzesentwurf der EU-Kommission sieht ebenfalls vier Risikoklassen vor, in die KI-Systeme je nach ihrem Einsatzzweck eingeteilt werden. Jedoch umfassen die zugrunde gelegten qualitativen Kriterien sowohl materielle Risiken – vordringlich für Leben und Gesundheit – als auch ethisch-gesellschaftlich motivierte Risiken mit ein. Es werden aber keine Mechanismen vorgeschlagen, wie unterschiedliche Risiken kategorisiert, gemessen und vergleichbar gemacht werden.
Dieses Whitepaper entwickelt erste Vorschläge zur Operationalisierung dieser notwendigen Kategorisierung, Messung und Herstellung von Vergleichbarkeit, auch um eine faktenbasierte Diskussion von Zielkonflikten zwischen verschiedenen Risiken zuzulassen. Anspruch ist dabei nicht eine Gesamtlösung zu entwickeln, sondern Ansätze für ein konsistentes Gesamtsystem und Vorschläge für eine mögliche Vertiefung aufzuzeigen.