Berlin, 9. November 2023 – Unfälle mit automatisierten Fahrzeugen, perfekt formulierte Phishing-Mails oder manipulierte Fotos und Videos: Künstliche Intelligenz (KI) bietet große Chancen, birgt aber auch ein großes Fehler- und Missbrauchspotenzial. Eine große Mehrheit der deutschen Bevölkerung spricht sich deshalb für eine Regulierung von Künstlicher Intelligenz aus: 83 Prozent stimmen der Aussage zu, dass es gesetzliche Vorgaben für die ethische Entwicklung und den sicheren Einsatz von KI geben sollte. „Künstliche Intelligenz braucht einen Rechtsrahmen, um die Technologie sicher nutzen zu können“, sagt Dr. Johannes Bussmann, Präsident des TÜV-Verbands und CEO von TÜV SÜD, anlässlich der „TÜV AI Conference“. „Nur so gewinnen die Menschen Vertrauen, insbesondere beim Einsatz sicherheitskritischer KI-Anwendungen in Fahrzeugen, in der Medizin oder in der Robotik.“ Mit dem „AI Act“ habe Europa die Chance, ein Ökosystem für sichere und qualitativ hochwertige KI zu schaffen. Der AI Act legt Anforderungen wie Transparenz, Nachvollziehbarkeit, Diskriminierungsfreiheit oder hohe Datenqualität für KI-Anwendungen unterschiedlicher Risikoklassen fest. „Der risikobasierte Ansatz des AI Acts ist innovationsfreundlich und gleichzeitig flexibel, um auf technologische Entwicklungen reagieren zu können“, sagt Bussmann. „Die finalen Trilogverhandlungen zwischen den EU-Institutionen sollten jetzt zügig abgeschlossen werden.“
Die EU gilt bei der gesetzlichen Regulierung von KI-Systemen international als Vorreiter, befindet sich aber inzwischen in guter Gesellschaft. Erst kürzlich haben sich die G7-Staaten auf Leitlinien für den sicheren Einsatz Künstlicher Intelligenz geeinigt. Gleichzeitig hat US-Präsident Biden eine Executive Order für sichere und vertrauenswürdige KI erlassen. Sie adressiert die gleichen Herausforderungen wie der AI Act, darunter Cybersecurity, Datenschutz und Gleichbehandlung. Ein weiteres Ziel ist die Entwicklung von Standards, Tools und Testverfahren, um KI-Systeme sicher zu machen. „Für eine sichere und qualitativ hochwertige KI brauchen wir international anerkannte Normen und Standards“, betont Bussmann. Wie die Sicherheit von KI-Systemen in der Praxis überprüft werden kann, zum Beispiel durch Qualitätstests von Trainingsdaten, entwickelt sich gerade zu einem eigenen Forschungs- und Entwicklungszweig. Die TÜV-Unternehmen sind hier unter anderem mit dem „TÜV AI Lab“ aktiv.
Aus Sicht des TÜV-Verbands müssen Deutschland und Europa gleichzeitig mehr in die Forschung und Entwicklung Künstlicher Intelligenz investieren. Der von Bundesforschungsministerin Bettina Stark-Watzinger vorgestellte KI-Aktionsplan sei daher ein Schritt in die richtige Richtung. „Die deutsche KI-Forschung muss gestärkt und in die europäischen Forschungsnetzwerke eingebunden werden“, sagt Bussmann. Ein Schwerpunkt müsse dabei auf den Transfer von Forschungsergebnissen in wirtschaftlich tragfähige Geschäftsmodelle gelegt werden, ein Schwachpunkt der deutschen Wissenschaftslandschaft. Inhaltlich sollte die wissenschaftliche Forschung auch Vorhaben umfassen, die sich mit dem Testen, der Qualitätskontrolle und der ethischen Entwicklung von KI-Systemen beschäftigen.
Sichere und vertrauenswürdige KI ist auch das Thema der „TÜV AI Conference“, die am 9. November 2023 als Online-Konferenz stattfindet. Über die Chancen und Risiken Künstlicher Intelligenz diskutieren unter anderem Oliver Luksic MdB, Parlamentarischer Staatssekretär im BMDV, Prof. Alena Buyx, Vorsitzende des Deutschen Ethikrats, Prof. Petra Ritter, Direktorin der Sektion Gehirnsimulation am Berlin Institute of Health, und Dr. Johannes Bussmann, Präsident des TÜV-Verbands. Beim Policy Lab pitchen Bundestagsabgeordnete zu der Frage: „ChatGPT & Co: Ist unser Bildungssystem vorbereitet?“ In fünf Deep Dive Sessions diskutieren die Speaker mit den Teilnehmenden zu KI-Zertifizierungen, den Möglichkeiten von Large Language Models und weiteren Themen.
Weitere Informationen zum Programm und Anmeldung zur „TÜV AI Con“