Berlin, 15. Januar 2024 – Eine relative Mehrheit der deutschen Bevölkerung ist der Meinung, dass Künstliche Intelligenz (KI) eine Gefahr für die Demokratie darstellt: 46 Prozent der Bundesbürger:innen stimmen dieser Aussage zu. Auf der anderen Seite sehen 43 Prozent diese Gefahr derzeit nicht und 11 Prozent antworten mit „weiß nicht“. Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.008 Personen ab 16 Jahren ergeben. „Künstliche Intelligenz ist als Technologie eine gesamtgesellschaftliche Herausforderung“, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, anlässlich des World Economic Forum in Davos. „Neben den großen Chancen in Bereichen wie der Medizin, der Mobilität oder der Robotik entstehen neue Risiken unter anderem für unser Mediensystem und die Demokratie.“ Das vergangene Jahr habe gezeigt, dass generative KI-Systeme wie ChatGPT enormes Potenzial bei der automatisierten Erstellung und Verbreitung von Inhalten und so genannten Deepfakes haben. Laut Umfrage sind 91 Prozent der Befragten der Ansicht, dass kaum noch erkennbar sein wird, ob Fotos oder Videos echt oder gefälscht sind. Auch der Wahrheitsgehalt von mit Hilfe von KI erzeugter Texte sei nicht mehr nachvollziehbar, sagen 83 Prozent. Und 81 Prozent glauben, dass KI die Verbreitung von „Fake News“ massiv beschleunigen wird. Bühler: „KI-Systeme können dafür genutzt werden, Desinformation zu verbreiten und die Polarisierung der Gesellschaft weiter zu verstärken. Im Superwahljahr 2024 stehen in den USA und auch in Europa wichtige Wahlen an. KI darf dabei nicht zur Achillesferse der Demokratie werden.“
Die Chancen und Risiken Künstlicher Intelligenz sind ein wichtiges Thema auf dem diesjährigen World Economic Forum, bei dem Spitzenvertreter aus Politik, Wirtschaft und Zivilgesellschaft in Davos zusammenkommen. Neben den wirtschaftlichen Chancen werden dabei auch die globalen Rahmenbedingungen für die Entwicklung vertrauenswürdiger KI-Anwendungen eine zentrale Rolle spielen. „Mit der Einigung auf den AI Act hat die EU bei der KI-Regulierung vorgelegt“, sagte Bühler. So werden KI-Anwendungen mit inakzeptablen Risiken wie Social Scoring verboten. KI-Systeme mit hohem Risiko müssen grundlegende Sicherheits- und Transparenzanforderungen erfüllen. Dazu zählen Anforderungen in Bezug auf Nachvollziehbarkeit, Risikomanagement oder Cybersecurity. „Doch bis die Regelungen wirksam werden, wird es noch einige Jahre dauern“, so Bühler. „In Europa kommt es jetzt darauf an, ein Ökosystem zu schaffen, in dem sichere innovative KI-Anwendungen entwickelt werden können.“ Dazu gehören auch entsprechende Test- und Prüfverfahren für die KI-Systeme. Zu diesem Zweck haben die TÜV-Unternehmen das „TÜV AI.Lab“ gegründet, das mit Forschungseinrichtungen, Verbänden und Normungsinstituten zusammenarbeitet.
TÜV AI.Lab im AI House Davos vertreten
Das TÜV AI.Lab wird während des World Economic Forums im „AI House Davos“ vertreten sein. Hier kommen Vertreter:innen aus Unternehmen, Forschungseinrichtungen, Verbänden, Medien und anderen Institutionen zusammen, um sich über das Thema vertrauenswürdige KI auszutauschen. „Wir wollen den globalen Dialog vorantreiben und ein gemeinsames Verständnis darüber entwickeln, wie wir mit dem rapiden Fortschritt der KI-Technologie umgehen müssen“, sagte Franziska Weindauer, Geschäftsführerin des TÜV AI.Labs. „Wir wollen unsere Erkenntnisse mit anderen Experten darüber teilen, wie man KI testet und zertifiziert, welche Herausforderungen damit verbunden sind und wie diese Prozesse bei einer digitalen Technologie wie KI völlig neu gedacht werden müssen.“
Weitere Informationen unter: www.tuev-verband.de/digitalisierung/kuenstliche-intelligenz, www.tuev-lab.ai und www.aihousedavos.com