Digitalisierung

Künstliche Intelligenz

Künstliche Intelligenz (KI) ist eine der Schlüsseltechnologien unserer Zeit. Generative Künstliche Intelligenzen wie ChatGPT werden zunehmend in der breiten Bevölkerung genutzt. Damit geraten auch ihre Risiken für Sicherheit und Demokratie immer stärker in den Fokus der Öffentlichkeit. Doch bietet KI viele Chancen: Algorithmen helfen Mediziner:innen bei der Diagnose von Krankheiten, Verbraucher:innen beim Energiesparen oder Singles bei der Partnerwahl. Autonomes Fahren und neue Mobilitätskonzepte wären ohne KI nicht denkbar. Das bedeutet aber auch: Die Risiken durch fehlerhafte KI-Anwendungen, Eingriffe in die Privatsphäre oder Cyberangriffe steigen.

Viele KI-gestützte Systeme und große Sprachmodelle sind für Nutzer:innen wie eine „Blackbox“, deren Funktionsweise sie weder nachvollziehen noch verstehen. Sie müssen darauf vertrauen können, dass die Anbieter dieser Systeme höchste Sicherheitsstandards einhalten. Der TÜV-Verband und seine Mitglieder plädieren dafür, prüfbare Sicherheitsstandards zu etablieren, um KI-Anwendungen gleichzeitig transparent und sicher zu machen. Dazu sind auf politischer Ebene noch einige Schritte notwendig: Sicherheitsstandards müssen formuliert, ethische Fragen geklärt, Prüfszenarien entwickelt und die Umsetzung des europäischen AI Acts konsequent eingehalten werden.

KI braucht Standards

Gut die Hälfte der Bundesbürger:innen (53 Prozent) hat generative KI bereits genutzt. Das ist ein Ergebnis der aktuellen ChatGPT-Umfrage des TÜV-Verbands. Gleichzeitig gibt es große Bedenken und Vorbehalte in der deutschen Bevölkerung gegenüber der Technologie: Eine deutliche Mehrheit fürchtet unkalkulierbare Risiken (76 Prozent). Die Notwendigkeit der Regulierung von KI-Systemen sehen 80 Prozent und die verpflichtende Sicherheitsprüfung durch unabhängige Prüforganisationen halten 83 Prozent der Befragten für relevant. Diese Ergebnisse zeigen die Notwendigkeit auf, in der Bevölkerung Vertrauen in die Sicherheit und Verlässlichkeit von KI-Anwendungen zu schaffen. Um die Gesellschaft vor möglichen Risiken durch KI-Systeme zu schützen, hat die EU im August 2024 die europäische KI-Verordnung, den EU AI Act, verabschiedet. Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die Anbieter und Betreiber von KI in Zukunft erfüllen müssen. Der TÜV-Verband hat das Gesetzgebungsverfahren eng begleitet und setzt sich für die möglichst konsequente, praxistaugliche Umsetzung des AI Acts ein.

Die Risikoklassen

  1. Inakzeptables Risiko: Diese KI-Systeme werden verboten. Sie bergen ein erhebliches Potenzial zur Verletzung von Menschenrechten oder Grundprinzipien. Hierzu gehören Social-Scoring-Systeme.
  2. Hohes Risiko: Hochrisiko-KI-Systeme haben potenziell ein hohes Risiko für die Gesundheit, die Sicherheit oder die Grundrechte von Menschen. Für sie gelten strenge Sicherheitsanforderungen beispielsweise in Bezug auf Cybersecurity oder die Nachvollziehbarkeit. Zu ihnen zählen Systeme zum Filtern von Bewerbungen oder zur Beturteilung der Kreditwürdigkeit von Personen.
  3. Begrenztes Risiko: Hierbei handelt es sich um KI-Systeme, die mit Menschen interagieren. Das sind beispielsweise Chatbots. Hier gelten Transparenz- und Kennzeichnungspflichten.
  4. Niedriges Risiko: Für Anwendungen mit niedrigem Risiko sind aktuell keine rechtlichen Anforderungen vorgesehen. Spamfilter zählen beispielsweise zu dieser Kategorie.

Die große Mehrheit der KI-Anwendungen wird als ‚low risk‘ eingestuft, für die keinerlei Anforderungen gelten.

Dr. Joachim Bühler, Geschäftsführer TÜV-Verband

Die AICon 2024 hier noch einmal ansehen

Das AI Forum 2024 von TÜV-Verband, BSI und Fraunhofer HHI noch einmal ansehen

Mehr zum TÜV AI.Lab

Das TÜV Meetup "Smart Skills und KI-Weiterbildung"

Der TÜV-Verband unterstützt den Einsatz von KI zum Nutzen der Gesellschaft und setzt sich mit seinen Mitgliedern dafür ein, die Qualitäts-, Sicherheits- und Nachhaltigkeitsstandards von KI-gestützten Systemen kontinuierlich zu verbessern. Insbesondere für den Einsatz von KI-Systemen mit einem hohen Risiko für den Menschen sollten verbindliche Sicherheitsstandards gelten, deren Einhaltung von unabhängigen Prüforganisationen überwacht wird. Denn erst die sichere Anwendung KI-gestützter Systeme schafft die notwendige gesellschaftliche Akzeptanz für ihren breiteren Einsatz.

KI braucht Testzentren

Bei komplexen Technologien wie KI reicht es nicht aus, Gesetzestexte zu formulieren. Die Umsetzung der KI-Regulierung und Entwicklung vertrauenswürdiger KI „Made in Germany“ und Europa (Trustworthy AI) müssen in der Praxis umsetzbar sein. Die Entwicklung von Standards für die Prüfung sicherheitskritischer KI-Anwendungen ist für die Praxistauglichkeit zentral. Flankiert werden sollte sie durch gezielte Innovationspolitik.

Der TÜV-Verband engagiert sich daher für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene. Auch die Ausbildung von Fachkräften und das Thema KI-Kompetenzen sollten vorangetrieben werden, genauso wie die Umsetzung von Forschungsvorhaben zur Prüfbereitschaft aller vom europäischen AI Act betroffenen Stakeholder im KI-Ökosystem. Kleineren und mittelständischen Unternehmen können solche Beratungs- und Testzentren als erste Anlaufstelle bei der Umsetzung der anstehenden KI-Regulierung dienen. TÜV-Verband und VDE haben gemeinsam das Konzept  der „AI Quality & Testing Hubs“ erarbeitet. Die Bundesländer Berlin, Hessen und Nordrhein-Westfalen haben bereits konkrete Aktivitäten in diese Richtung aufgenommen. Der Bund unterstützt die Entwicklung und Qualität von "AI Made in Germany" beispielsweise durch Förderprojekte wie die bei der acatech aufgehängte Mission KI, an der auch das TÜV AI.Lab aktiv mitarbeitet.

TÜV AI Conference

Einmal im Jahr lädt der TÜV-Verband zur TÜV AICon ein – dem führenden Branchentreff rund um sichere, nachhaltige und vertrauenswürdige KI in Deutschland entwickelt. Auch im Jahr 2025 diskutieren wir wieder mit führenden Expert:innen aus Politik, Wissenschaft und Wirtschaft über die aktuellen KI-Trends und -Politik. Seien Sie am 4. Dezember dabei.

Allianz für KI-Kompetenz

KI-Kompetenzen sind der Schlüssel für eine erfolgreiche digitale Transformation und die Sicherung der Wettbewerbsfähigkeit Deutschlands. Der TÜV-Verband setzt sich mit Nachdruck für den Ausbau dieser Kompetenzen ein und ist deswegen Partner der AI Skilling Alliance Deutschland von Microsoft. Die gemeinsame Vision der Allianz für KI-Kompetenz: Ein Deutschland, das die Potenziale der KI voll ausschöpft und so nicht nur technologisch, sondern auch wirtschaftlich nachhaltig erfolgreich bleibt. Die Allianz bietet kostenlose Lernpfade und Basiskurse an. Weiterführende KI-Seminare und Zertifikate finden Interessierte bei den TÜV-Akademien: In ihren maßgeschneiderten, breit gefächerten (KI-)Weiterbildungs-Angeboten sind Digitalkompetenzen sowohl Thema als auch Methode.

Neuigkeiten

 

KI-Nutzung: Computer vor Smartphones

 

Zwei Jahre ChatGPT: Mehrheit nutzt KI

 

KI: Zwei Drittel haben geringes Vertrauen in Politik

 

TÜV-Verband begrüßt Annahme des AI Acts im EU-Rat

 

Erste Digitalministerkonferenz: Schritt in richtige Richtung

 

Zustimmung des EU-Parlaments zum AI Act

 

Energiebedarf Künstlicher Intelligenz wächst rasant

 

TÜV-Verband begrüßt die Zustimmung des Rats zum AI Act

 

Mehrheit sieht in KI eine Gefahr für die Demokratie

 

„AI Act": Künstliche Intelligenz muss sicher sein

 

ChatGPT-Umfrage: Gut ein Drittel nutzt die KI

 

TÜV AI.Lab: MISSION KI entwickelt Gütesiegel für KI

 

Mehrheit fordert gesetzliche Vorgaben für sichere KI

 

Neue Geschäftsführerin des TÜV AI Lab

 

KI-Regulierung ambitioniert und zukunftssicher gestalten

 

Empfehlungen zu den AI Act-Trilogverhandlungen

 

TÜV-Verband begrüßt KI-Initiative des Bundes

 

Künstliche Intelligenz: Fast jede:r Vierte nutzt ChatGPT

 

Verbesserungspotenzial bei EU-Regulierung von KI

 

Zukunftstechnologien brauchen gesetzlichen Rahmen

 

Appell für KI-Moratorium zeigt politischen Handlungsbedarf

 

TÜV-Verband wird Projektpartner bei TEF-Health

 

Chancen von Grüner IT und -KI nutzen

 

Verbraucher:innen fordern gesetzliche Regeln für KI

 

Künstliche Intelligenz im Gesundheitswesen

 

Prüfbarkeit von sicherheitskritischen KI-Anwendungen

 

Whitepaper zur Prüfbarkeit von KI-Systemen

 

In Weiterbildung zu KI investieren

 

TÜV-Verband fordert Testzentren für Künstliche Intelligenz

 

KI-Studie: Verbraucher:innen fordern Prüfzeichen für KI

 

KI-Studie 2021

 

Künstliche Intelligenz mit hohem Risiko unabhängig prüfen

 

Vorschlag zur Risikoklassifizierung von KI-Systemen

 

Stellungnahme zum KI-Gesetzesvorschlag der EU-Kommission

 

Neues Whitepaper zur Prüfbarkeit von KI

 

Vorschläge der EU-Kommission für KI-Regulierung unzureichend

 

TÜV-Unternehmen gründen AI Lab

 

KI-Studie mit Unternehmen

 

Zur Sicherheit KI-gestützter Anwendungen

 

Künstliche Intelligenz braucht Regeln

 

Künstliche Intelligenz braucht bessere Bildung

 

KI-Verbraucherstudie

 

TÜV® MeetUp | Künstlicher Intelligenz vertrauen

 

TÜV Cybersecurity Studie

 

Vertrauen in KI-basierte Systeme schaffen

 

Angst vor Datenmissbrauch im Smart Home

 

Vertrauen in KI-basierte Systeme schaffen

 

Große Mehrheit für Algorithmen-Checks

Haben Sie Fragen?

Dr. Patrick Gilroy

Referent Künstliche Intelligenz und Bildung

+49 30 760095-360

patrick.gilroy@tuev-verband.de