KI-Nutzung: Computer vor Smartphones
Digitalisierung
Künstliche Intelligenz

Künstliche Intelligenz (KI) ist eine der Schlüsseltechnologien unserer Zeit. Generative Künstliche Intelligenzen wie ChatGPT werden zunehmend in der breiten Bevölkerung genutzt. Damit geraten auch ihre Risiken für Sicherheit und Demokratie immer stärker in den Fokus der Öffentlichkeit. Doch bietet KI viele Chancen: Algorithmen helfen Mediziner:innen bei der Diagnose von Krankheiten, Verbraucher:innen beim Energiesparen oder Singles bei der Partnerwahl. Autonomes Fahren und neue Mobilitätskonzepte wären ohne KI nicht denkbar. Das bedeutet aber auch: Die Risiken durch fehlerhafte KI-Anwendungen, Eingriffe in die Privatsphäre oder Cyberangriffe steigen.
Viele KI-gestützte Systeme und große Sprachmodelle sind für Nutzer:innen wie eine „Blackbox“, deren Funktionsweise sie weder nachvollziehen noch verstehen. Sie müssen darauf vertrauen können, dass die Anbieter dieser Systeme höchste Sicherheitsstandards einhalten. Der TÜV-Verband und seine Mitglieder plädieren dafür, prüfbare Sicherheitsstandards zu etablieren, um KI-Anwendungen gleichzeitig transparent und sicher zu machen. Dazu sind auf politischer Ebene noch einige Schritte notwendig: Sicherheitsstandards müssen formuliert, ethische Fragen geklärt, Prüfszenarien entwickelt und die Umsetzung des europäischen AI Acts konsequent eingehalten werden.
KI braucht Standards
Gut die Hälfte der Bundesbürger:innen (53 Prozent) hat generative KI bereits genutzt. Das ist ein Ergebnis der aktuellen ChatGPT-Umfrage des TÜV-Verbands. Gleichzeitig gibt es große Bedenken und Vorbehalte in der deutschen Bevölkerung gegenüber der Technologie: Eine deutliche Mehrheit fürchtet unkalkulierbare Risiken (76 Prozent). Die Notwendigkeit der Regulierung von KI-Systemen sehen 80 Prozent und die verpflichtende Sicherheitsprüfung durch unabhängige Prüforganisationen halten 83 Prozent der Befragten für relevant. Diese Ergebnisse zeigen die Notwendigkeit auf, in der Bevölkerung Vertrauen in die Sicherheit und Verlässlichkeit von KI-Anwendungen zu schaffen. Um die Gesellschaft vor möglichen Risiken durch KI-Systeme zu schützen, hat die EU im August 2024 die europäische KI-Verordnung, den EU AI Act, verabschiedet. Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die Anbieter und Betreiber von KI in Zukunft erfüllen müssen. Der TÜV-Verband hat das Gesetzgebungsverfahren eng begleitet und setzt sich für die möglichst konsequente, praxistaugliche Umsetzung des AI Acts ein.
Die Risikoklassen
- Inakzeptables Risiko: Diese KI-Systeme werden verboten. Sie bergen ein erhebliches Potenzial zur Verletzung von Menschenrechten oder Grundprinzipien. Hierzu gehören Social-Scoring-Systeme.
- Hohes Risiko: Hochrisiko-KI-Systeme haben potenziell ein hohes Risiko für die Gesundheit, die Sicherheit oder die Grundrechte von Menschen. Für sie gelten strenge Sicherheitsanforderungen beispielsweise in Bezug auf Cybersecurity oder die Nachvollziehbarkeit. Zu ihnen zählen Systeme zum Filtern von Bewerbungen oder zur Beturteilung der Kreditwürdigkeit von Personen.
- Begrenztes Risiko: Hierbei handelt es sich um KI-Systeme, die mit Menschen interagieren. Das sind beispielsweise Chatbots. Hier gelten Transparenz- und Kennzeichnungspflichten.
- Niedriges Risiko: Für Anwendungen mit niedrigem Risiko sind aktuell keine rechtlichen Anforderungen vorgesehen. Spamfilter zählen beispielsweise zu dieser Kategorie.
Die große Mehrheit der KI-Anwendungen wird als ‚low risk‘ eingestuft, für die keinerlei Anforderungen gelten.
Der TÜV-Verband unterstützt den Einsatz von KI zum Nutzen der Gesellschaft und setzt sich mit seinen Mitgliedern dafür ein, die Qualitäts-, Sicherheits- und Nachhaltigkeitsstandards von KI-gestützten Systemen kontinuierlich zu verbessern. Insbesondere für den Einsatz von KI-Systemen mit einem hohen Risiko für den Menschen sollten verbindliche Sicherheitsstandards gelten, deren Einhaltung von unabhängigen Prüforganisationen überwacht wird. Denn erst die sichere Anwendung KI-gestützter Systeme schafft die notwendige gesellschaftliche Akzeptanz für ihren breiteren Einsatz.
KI braucht Testzentren
Bei komplexen Technologien wie KI reicht es nicht aus, Gesetzestexte zu formulieren. Die Umsetzung der KI-Regulierung und Entwicklung vertrauenswürdiger KI „Made in Germany“ und Europa (Trustworthy AI) müssen in der Praxis umsetzbar sein. Die Entwicklung von Standards für die Prüfung sicherheitskritischer KI-Anwendungen ist für die Praxistauglichkeit zentral. Flankiert werden sollte sie durch gezielte Innovationspolitik.
Der TÜV-Verband engagiert sich daher für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene. Auch die Ausbildung von Fachkräften und das Thema KI-Kompetenzen sollten vorangetrieben werden, genauso wie die Umsetzung von Forschungsvorhaben zur Prüfbereitschaft aller vom europäischen AI Act betroffenen Stakeholder im KI-Ökosystem. Kleineren und mittelständischen Unternehmen können solche Beratungs- und Testzentren als erste Anlaufstelle bei der Umsetzung der anstehenden KI-Regulierung dienen. TÜV-Verband und VDE haben gemeinsam das Konzept der „AI Quality & Testing Hubs“ erarbeitet. Die Bundesländer Berlin, Hessen und Nordrhein-Westfalen haben bereits konkrete Aktivitäten in diese Richtung aufgenommen. Der Bund unterstützt die Entwicklung und Qualität von "AI Made in Germany" beispielsweise durch Förderprojekte wie die bei der acatech aufgehängte Mission KI, an der auch das TÜV AI.Lab aktiv mitarbeitet.
TÜV AI Conference
Einmal im Jahr lädt der TÜV-Verband zur TÜV AICon ein – dem führenden Branchentreff rund um sichere, nachhaltige und vertrauenswürdige KI in Deutschland entwickelt. Auch im Jahr 2025 diskutieren wir wieder mit führenden Expert:innen aus Politik, Wissenschaft und Wirtschaft über die aktuellen KI-Trends und -Politik. Seien Sie am 4. Dezember dabei.
Allianz für KI-Kompetenz
KI-Kompetenzen sind der Schlüssel für eine erfolgreiche digitale Transformation und die Sicherung der Wettbewerbsfähigkeit Deutschlands. Der TÜV-Verband setzt sich mit Nachdruck für den Ausbau dieser Kompetenzen ein und ist deswegen Partner der AI Skilling Alliance Deutschland von Microsoft. Die gemeinsame Vision der Allianz für KI-Kompetenz: Ein Deutschland, das die Potenziale der KI voll ausschöpft und so nicht nur technologisch, sondern auch wirtschaftlich nachhaltig erfolgreich bleibt. Die Allianz bietet kostenlose Lernpfade und Basiskurse an. Weiterführende KI-Seminare und Zertifikate finden Interessierte bei den TÜV-Akademien: In ihren maßgeschneiderten, breit gefächerten (KI-)Weiterbildungs-Angeboten sind Digitalkompetenzen sowohl Thema als auch Methode.
Neuigkeiten
Haben Sie Fragen?

Dr. Patrick Gilroy
Referent Künstliche Intelligenz und Bildung