Künstliche Intelligenz: Vertrauen schaffen durch Sicherheit und Transparenz

KI-Anwendungen müssen dauerhaft sicher sein, um sie wertschöpfend einsetzen zu können. Dafür nötig ist besonders die herstellerunabhängige Überprüfung der Sicherheit risikoreicher Anwendungen auch über den Zeitpunkt des Inverkehrbringens hinaus.

©Frank Chamaki via Unsplash

Ein wertschöpfender Einsatz von KI-Anwendungen ist nur dann möglich, wenn die notwendige Sicherheit dauerhaft gewährleistet wird. Die Sicherheit von und das Vertrauen in KI-Anwendungen muss daher oberste Priorität haben! Gerade beim Einsatz von risikoreichen Anwendungen sollten unbedingt unabhängige Dritte vor dem Inverkehrbringen und genauso in der Nutzungsphase eingebunden werden und die Sicherheit der KI herstellerunabhängig überprüfen. Eine Einteilung in mindestens drei Risikoklassen ist dabei essenziell, um Anforderungen an KI-Anwendungen zu formulieren, überprüfbar zu machen und gesetzlich festzuschreiben.

Status

Bisher fehlt es an verbindlichen Vorgaben für die Sicherheit von Systemen mit Künstlicher Intelligenz.

Vertrauen

In KI werden große Hoffnungen gesetzt. Vertrauen in Qualität und Sicherheit ist jedoch gering.

Regulierung

KI-Anwendungen sollten risikobasiert reguliert werden und entsprechende Sicherheitsanforderungen erfüllen.

 

Unsere Vorschläge für eine zukunftsweisende Regulierung

  • KI-Anwendungen in Risikoklassen einteilen und abhängig von der Risikoklasse Sicherheitsanforderungen definieren
  • Unabhängige Drittprüfung vorschreiben – bei höheren Risikoklassen vor Inbetriebnahme und während der Nutzung
  • Regulatorischen Rahmen festschreiben
  • AI.Testing Hub aufbauen

 

Das vollständige Paper zum Download

Policy Sheet „Künstliche Intelligenz: Vertrauen schaffen durch Sicherheit und Transparenz“