Das hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren ergeben. Die Umfrage wurde vom 16. bis 24. Oktober 2024 durchgeführt. Zum Vergleich: Im Oktober 2023 gaben bei einer Umfrage 37 Prozent der Deutschen an, KI bereits zu nutzen. Im April 2023, ein halbes Jahr nach Einführung von ChatGPT, waren es 23 Prozent. Derzeit nutzen vor allem Jüngere KI-Anwendungen: 78 Prozent der 16- bis 35-Jährigen, 55 Prozent der 36- bis 55-Jährigen, aber nur 26 Prozent in der Altersgruppe von 56 bis 75 Jahren. Gut ein Viertel der KI-Nutzenden sind „heavy user“, die entsprechende Anwendungen täglich oder mehrmals wöchentlich einsetzen.
Eine deutliche Mehrheit stimmt der Aussage zu, dass die KI-Technologie das Potenzial hat, sie im privaten (61 Prozent) und beruflichen (59 Prozent) Leben zu unterstützen. Es gibt aber auch starke Vorbehalte und Sorgen: Eine deutliche Mehrheit sieht derzeit nicht abschätzbare Risiken der KI-Technologie (76 Prozent). Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands: „Mit Blick auf die Bundestagswahl ist es wichtig, KI-Kompetenzen zu fördern und Maßnahmen für die Erkennung und Abwehr von Desinformation zu ergreifen. Die Parteien sollten sich im Wahlkampf auf Regeln für den Einsatz von KI verständigen und KI-generierte Wahlwerbung kennzeichnen.“
Laut den Ergebnissen der dritten TÜV ChatGPT-Studie werden in der Bevölkerung die Auswirkungen von KI auf Demokratie und Mediensystem besonders kritisch gesehen: So befürchten 87 Prozent, dass mithilfe von KI gefälschte Bilder und Videos (Deepfakes) Wähler manipulieren können. 83 Prozent sind der Meinung, dass die KI-Technologie die Verbreitung von „Fake News“ massiv beschleunigt. Und 79 Prozent glauben, dass KI-generierte Bilder und Videos von Parteien Wahlergebnisse beeinflussen können. „Im US-Wahlkampf waren Deepfakes ein verbreitetes Mittel, um Wähler zu manipulieren“, sagt Bühler. Laut Umfrage kann ein Großteil der Bundesbürger (81 Prozent) durch den Einsatz von KI kaum erkennen, ob Fotos und Videos echt oder gefälscht sind. 77 Prozent geben an, dass sie den Wahrheitsgehalt eines KI-generierten Textes nicht erkennen können.
„Um die Risiken von Wahlmanipulation zu verringern, müssen sich die demokratischen Parteien sowie öffentliche Institutionen gegen Desinformation wappnen“, sagt Bühler. „Es braucht klare Leitlinien für den Einsatz von KI im Wahlkampf und freiwillige Selbstverpflichtungen der politischen Parteien zum verantwortungsvollen Umgang mit KI. Die Betreiber von Social-Media-Plattformen müssen konkrete Maßnahmen ergreifen, um demokratische Prozesse zu schützen.“ Darüber hinaus müsse der Referentenentwurf für die deutschen Umsetzungsbestimmungen des EU AI Acts trotz Regierungskrise zügig fertiggestellt werden. Dies schaffe nicht nur Planungs- und Rechtssicherheit für Unternehmen und Prüforganisationen, sondern auch ein höheres Schutzniveau für die Bürger:innnen.
Die Umfrage zeigt, dass sich generative KI-Anwendungen zu einem Arbeitswerkzeug entwickeln: Die Hälfte der KI-Nutzenden setzt die Tools ein, um Texte korrekt zu verfassen. Fast ebenso viele nutzen KI für allgemeine Recherchezwecke oder als Alternative zur Internetsuche. Gut ein Drittel der Befragten nutzt generative KI für kreative und Prozesse wie Ideenfindung sowie zur Lösung von Problemstellungen. Etwa jeder Vierte nutzt sie zum Erstellen und Bearbeiten von Bildern und Videos und jeder Fünfte für Übersetzungen.
Was die Qualität der Ergebnisse angeht, sind die Meinungen geteilt: Knapp die Hälfte der Nutzenden hat nur geringes oder kein Vertrauen in die Richtigkeit der Ergebnisse von KI-Anwendungen. 43 Prozent geben an, dass die Ergebnisse nicht konkret genug sind und 31 Prozent, dass sie oft fehlerhaft oder falsch sind. Allerdings wissen sich die meisten zu helfen und überprüfen die Ergebnisse von ChatGPT und Co. durch weitere Recherchen. Immerhin 44 Prozent fragen die KI nach Quellen, um Ergebnisse zu überprüfen. „Die Skepsis gegenüber der Verlässlichkeit von KI-Ergebnissen verdeutlicht, wie wichtig es ist, Kompetenzen im Umgang mit KI-Technologien zu stärken“, betont Bühler. „Der Erwerb von KI-Kompetenzen und kontinuierliche Weiterbildung sind der Schlüssel für einen verantwortungsbewussten Umgang mit der Technologie und gegen Manipulation.“
Um die Gesellschaft vor möglichen Risiken von KI-Systemen zu schützen, hat die EU im August 2024 die europäische KI-Verordnung (EU AI Act) verabschiedet. Der AI Act teilt KI-Anwendungen in vier Risikoklassen mit jeweils unterschiedlichen Anforderungen ein, die in den kommenden Monaten schrittweise erfüllt werden müssen. Die Anforderungen an Transparenz, Risikomanagement und Kennzeichnung von KI-generierten Inhalten treten allerdings erst im August 2026 in Kraft. 90 Prozent der Deutschen fordert Transparenz- und Kennzeichnungspflichten für KI-generierte Inhalte. Eine verpflichtende Sicherheitsprüfung von KI-Systemen durch unabhängige Prüforganisationen halten vier von fünf Befragte für wichtig, damit Produkte und Anwendungen mit KI sicher und ethisch vertretbar sind. Und 80 Prozent halten eine Regulierung von KI für notwendig, um die Entwicklung und den Einsatz von KI verantwortungsvoll zu steuern.
Bühler: „Die TÜV-Unternehmen haben das TÜV AI.Lab gegründet, um Prüfmethoden und Prüfwerkzeuge für die Sicherheit von KI zu entwickeln. Jetzt müssen sie als notifizierte Stelle zugelassen werden, um Prüfung und Zertifizierung von KI durchführen zu können. Um reale KI-Risiken gezielt regulieren zu können, ist es wichtig, eine systematische KI-Schadensstatistik aufzubauen. Mithilfe eines evidenzbasierten Bildes realer Schäden mit KI-Beteiligung oder KI-Auslöser, können entsprechende Vorkehrungen gegen diese Risiken getroffen und das Vertrauen der Bürgerinnen und Bürger in die Technologie gestärkt werden.“
KI gehört schon zu den festen Instrumenten des Marketings. Doch viele Unternehmer setzen die KI…
Ransomware-Angriff auf die KI-gesteuerte Lieferkettenplattform Blue Yonder hat weitreichende Auswirkungen.
Seit Ende September ist sie also verfügbar: die Apple Watch 10. Auch in Deutschland kann…
ISG sieht engere Vernetzung zwischen Hyperscaler, IT-Partnern und Endkunden. Treiber ist das Zusammenspiel von KI…
Mit dem Tool können Unternehmen KI-Agenten mithilfe synthetisch generierter Daten testen, um präzise Antworten und…
Kostengünstiger Mini-PC mit AMD Ryzen 7 5825U-Prozessor, 16 GB Arbeitsspeicher (RAM) und 512 GB SSD.