Berlin, 11. Mai 2023 – Anwendungen mit generativer Künstlicher Intelligenz (KI) wie ChatGPT verbreiten sich rasant, verursachen aber auch erhebliche Sorgen in der Bevölkerung: Seit der Einführung im November haben schon 83 Prozent der Bundesbürger:innen von ChatPT gehört. Und fast jede:r Vierte hat ChatGPT bereits für berufliche oder private Zwecke genutzt (23 Prozent). Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.021 Personen ab 16 Jahren ergeben. Vorreiter sind die Jüngeren: 43 Prozent der 16- bis 35-Jährigen haben ChatGPT mittlerweile genutzt. In der Altersgruppe der 36- bis 55-Jährigen sind es 20 Prozent und unter den 56- bis 75-Jährigen nur 7 Prozent. Männer nutzen die KI-Anwendung mit 27 Prozent etwas häufiger als Frauen mit 19 Prozent. „Seit seiner Einführung zeigt ChatGPT eindrucksvoll, welches enorme Potenzial Künstliche Intelligenz hat“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, bei Vorstellung der Studienergebnisse. „ChatGPT zeigt aber auch, welche Risiken mit dem Einsatz von Künstlicher Intelligenz verbunden sind.“ In der Bevölkerung sind die Sorgen weit verbreitet. 80 Prozent der Befragten stimmen der Aussage zu, dass beim Einsatz von KI derzeit nicht abschätzbare Risiken bestehen. Fast zwei von drei befürchten, dass die Technologie für Menschen nicht mehr beherrschbar ist (65 Prozent) oder dass sie ohne ihr Wissen manipuliert werden könnten (61 Prozent). Und 76 Prozent haben Bedenken, dass KI persönliche Daten nicht ausreichend schützt. „Es muss sichergestellt werden, dass KI-Anwendungen Menschen nicht körperlich verletzen oder benachteiligen“, sagte Bühler. „Mit der geplanten KI-Verordnung besteht die Chance, einen Rechtsrahmen für die ethische und sichere Nutzung von Künstlicher Intelligenz in der EU zu schaffen.“ In der Studie befürworten 84 Prozent der Bundesbürger:innen gesetzliche Vorgaben für KI-Anwendungen.
Generative KI-Systeme wie ChatGPT, Midjourney, DALL-E oder DeepL werden für die Erstellung von Texten, Bildern, Videos oder anderer Inhalte verwendet. KI kommt darüber hinaus zunehmend in kritischen Bereichen wie automatisierten Fahrzeugen, bei medizinischen Diagnosen oder in der Robotik zum Einsatz. Und als automatisierte Entscheidungssysteme werden KI-Anwendungen beispielsweise bei der Personalauswahl oder für die Bewertung der Kreditwürdigkeit eingesetzt. Was die Chancen und Risiken der Technologie angeht, sind die Meinungen geteilt. Jede:r zweite (50 Prozent) ist der Ansicht, dass unter dem Strich die Chancen die Risiken übersteigen. 39 Prozent sind nicht dieser Meinung und 12 Prozent sind unentschlossen. „Weitreichende Folgen wird Künstliche Intelligenz für den Arbeitsmarkt haben“, sagte Bühler. 87 Prozent der Befragten gehen davon aus, dass Künstliche Intelligenz die Arbeitswelt grundlegend verändern wird. Und fast die Hälfte glaubt, dass sehr viele Menschen als Folge des KI-Einsatzes ihren Job verlieren werden (48 Prozent). Allerdings machen sich derzeit nur 15 Prozent Sorgen, dass KI-Systeme ihre eigene berufliche Tätigkeit ersetzen werden. Viele erwarten sogar Vorteile. Jede:r zweite stimmt der Aussage zu, dass KI das Potenzial hat, ihn oder sie in ihrem Beruf zu unterstützen (50 Prozent). „Ein wahrscheinliches Szenario ist, dass KI-Anwendungen als digitale Assistenten die Beschäftigten bei der Bewältigung unterschiedlichster Aufgaben unterstützen werden“, sagte Bühler. Das gelte sowohl für Büroarbeiten als auch für die Planung und Durchführung manueller Tätigkeiten.
Gefahren für Mediensystem und Demokratie
Große Sorgen bereitet der Bevölkerung die Auswirkungen von ChatGPT und anderen generativen KI-Anwendungen für das Mediensystem und unser politisches System. Gut jede:r zweite ist der Meinung, dass die Technologie eine Gefahr für die Demokratie ist (51 Prozent). „Die Bürger:innen befürchten eine Welle von Falschnachrichten, Propaganda und manipulierten Bildern, Texten und Videos“, sagte Bühler. Laut Umfrage gehen 84 Prozent der Befragten davon aus, dass KI die Verbreitung von „Fake News“ massiv beschleunigen wird. 91 Prozent glauben, dass kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Und gut zwei von drei Befragten fürchten, dass KI die Verbreitung staatlicher Propaganda massiv beschleunigen wird (69 Prozent). Bühler: „Mit Künstlicher Intelligenz erstellte Inhalte werden die demokratischen Gesellschaften vor enorme Herausforderungen stellen.“
Bevölkerung fordert Rechtsrahmen für Künstliche Intelligenz
Eindeutig sind die Ergebnisse der Umfrage auch bei der Frage nach gesetzlichen Vorgaben. 91 Prozent fordern, dass der Gesetzgeber einen rechtlichen Rahmen für den sicheren Einsatz von KI schaffen sollte. Dabei sollte sich die Regulierung und Nutzung von KI in der EU an europäischen Werten orientieren, sagen 83 Prozent. Nur 16 Prozent sind dagegen der Meinung, dass man KI derzeit nicht regulieren und die ethische Entwicklung den Tech-Unternehmen überlassen sollte. Klare Vorstellungen haben die Befragten auch bei möglichen Vorgaben: 94 Prozent fordern eine Kennzeichnungspflicht für automatisiert bzw. mit KI-Unterstützung erzeugte Inhalte, 88 Prozent eine Kennzeichnung, dass KI in einem Produkt oder einer Anwendung „enthalten“ ist, und 86 Prozent fordern sogar eine verpflichtende Prüfung der Qualität und Sicherheit von KI-Systemen durch unabhängige Prüforganisationen.
Aus Sicht des TÜV-Verbands leitet sich daraus ein klarer Handlungsauftrag für die Politik ab. „Mit dem AI Act ist die EU globaler Vorreiter bei der Gesetzgebung in den demokratisch organisierten Wirtschaftsblöcken“, sagte Bühler. „Mit einer intelligenten Regulierung können wir einen internationalen Standard für innovative und wertebasierte KI setzen.“ Der heute in den Ausschüssen des EU-Parlaments zu beratende Entwurf des AI Acts sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Die geplanten Regelungen reichen von einem Verbot für KI-Anwendungen mit einem „unannehmbaren Risiko“ wie zum Beispiel Social Scoring bis zu keinerlei Vorgaben für Anwendungen mit „minimalem Risiko“ wie Spamfiltern oder Games. KI-Systeme mit einem „begrenzten Risiko“ wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem „hohem Risiko“, zum Beispiel in kritischen Infrastrukturen, Software im Personalwesen oder bestimmte KI-basierte Roboter, gelten strenge Sicherheitsanforderungen. Diese müssen neben Transparenzpflichten auch Anforderungen wie die Erklärbarkeit ihrer Ergebnisse oder Diskriminierungsfreiheit erfüllen. Bühler: „Vor ihrer Markteinführung sollten alle Hochrisiko-KI-Systeme von einer unabhängigen Stelle überprüft werden. Nur so kann sichergestellt werden, dass die Anwendungen den Sicherheitsanforderungen entsprechen.“
Aus Sicht des TÜV-Verbands sollte bereits jetzt die praktische Umsetzung der KI-Vorgaben vorbereitet werden. Eine wichtige Grundlage dafür sind allgemeingültige Normen, Standards und Qualitätskriterien. Darüber hinaus müssen entsprechende Prüfverfahren entwickelt werden. Der TÜV-Verband engagiert sich seit längerem für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene. Die TÜV-Unternehmen bereiten sich derzeit auf die Prüfung von KI-Systemen vor und haben dafür das „TÜV AI Lab“ gegründet.
Ergebnisse der Befragung zum Download
Methodik-Hinweis: Grundlage der Angaben ist eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.021 Personen ab 16 Jahren. Die Umfrage wurde im April und Mai 2023 durchgeführt.