- Angst vor den Gefahren der KI
- KI-Antworten: Lüge oder Wahrheit?
- Können wir Künstlicher Intelligenz als Ratgeber trauen?
- Künstliche Intelligenz als Fake News Produzent
- So lockt uns KI in die Belohnungs-Falle
- Gibt es bald künstliche Radio-Moderator:innen?
Wie gefährlich ist Künstliche Intelligenz?
KI ist längst im Alltag angekommen: Ob bei der Sprach- oder Gesichtserkennung, beim Navigationssystem oder wenn uns beim Online-Einkauf personalisierte Vorschläge gemacht werden. Gleichzeitig ist Künstliche Intelligenz für viele Menschen weiterhin ein wenig unheimlich.
Ich bekomme wirklich ganz oft die Frage: Wird die KI uns alle töten? In dieser Form ist das nicht so hilfreich. Da wäre es besser, zu fragen: Wird meine Gesichtserkennung auf dem Smartphone uns alle töten? Nein, wahrscheinlich nicht. Wird die Übersetzungs-KI uns töten? Nein, wahrscheinlich nicht.
Aber: Was wird KI in Zukunft alles können oder kontrollieren? Haben wir es bald mit noch mehr Fake News zu tun? Ist Künstliche Intelligenz eine Bedrohung für den Menschen?
Künstliche Intelligenz Das solltet ihr über KI wissen: Tipps vom SWR KI-Experten
Ob ChatGPT, Perplexity, Gemini oder andere KI-Tools: Ein Alltag ohne Künstliche Intelligenz ist fast nicht mehr denkbar. Hier findet ihr die wichtigsten Tipps zum Umgang mit KI.
So verlässlich sind die Antworten der KI
Katharina Zweig ist eine ausgewiesene Expertin zum Thema Künstliche Intelligenz: Informatikprofessorin, Bestsellerautorin, Trägerin des Bundesverdienstkreuzes. Sie beschäftigt sich mit der Wechselwirkung von Gesellschaft und Informatik und leitet an der TU Landau-Kaiserslautern den einzigen Lehrstuhl in Deutschland für Sozioinformatik.
Ihr aktuelles Buch fragt "Weiß die KI, dass sie nichts weiß?" Eine der Antworten, die Katharina Zweig auf diese Frage in SWR1 Leute gibt: Die KI vergaß lange Zeit sehr schnell, was sie uns eigentlich antworten wollte. Beispiel: das Kochrezept einer frühen KI-Variante.
Rühre den Teig, fülle den in die Form ein, tu ihn in den Backofen und dann holst du den Schweinebraten wieder raus.
Mittlerweile passiert der KI ein solcher Fehler nicht mehr. Er zeigt aber gut, wie sehr KI angewiesen ist auf Training. Dass sie mit möglichst vielen Daten gefüttert werden und entsprechend programmiert sein muss, um die richtigen Antworten zu geben. Denn anders als wir Menschen "errechnet" Künstliche Intelligenz die Antworten auf der Basis von Wahrscheinlichkeiten. Das wiederum müssten wir bei der Nutzung von KI beachten, meint Zweig.
Wir werden jetzt immer mehr sehen, dass Maschinen Entscheidungen treffen. Und wir müssen verstehen, warum die falsch sein können.
Forscher simulieren Fälle Alkoholmissbrauch, Drogenkonsum & Suizid: ChatGPT gibt erschreckende Antworten
KI macht an vielen Stellen das Leben bestimmt einfacher. Gerade für Kinder und Jugendliche in labilem Zustand kann es aber auch absurd gefährlich werden. Eine Studie hat jetzt gezeigt: ChatGPT erstellt problemlos einen Plan für Alkoholkonsum oder schreibt Abschiedsbriefe für Suizidgefährdete.
Besorgnis erregend: die KI als psychologischer Ratgeber
Katharina Zweig macht sich gerade bei Jugendlichen im Zusammenhang mit Künstlicher Intelligenz besonders Sorgen. Beim Erwachsenwerden gebe es viele Themen, die schambehaftet sind. Die Wahrscheinlichkeit, dass Jugendlich dann "zu einer Maschine für Seelsorge greifen und sie zur Psychotherapie verwenden", sei besonders groß.
Wir haben jetzt den Fall eines Sechzehnjährigen, der hat sich mit Suizidgedanken an ein Sprachmodell [einen KI-Chat] gewendet. Das hat ihm am Ende geholfen, das durchzuführen. Und darüber müssen wir ganz dringend mit unseren Kindern sprechen, dass man sich nicht mit privaten Problemen an Sprachmodelle wenden darf.
Wichtig sei deshalb, dass die sogenannten Systemprompts der KI-Maschine entsprechend programmiert sind, so Zweig. Die KI "versteht" also nicht nur die Fragen ("Prompt") an sich, sondern sieht anhand der Wiederholungen, dass es sich immer wieder um ein Thema dreht: in diesem Fall Suizidgedanken.
Das sollte die Künstliche Intelligenz erkennen können ("Systemprompt"). Sie sollte Hinweise geben, dass die Jugendlichen sich besser direkt an eine Seelsorge oder psychologische Beratungsstelle – und damit menschliche Hilfe – wenden.
Forscher über die Zukunft der Kinder Generation Beta: Was erwartet Kinder, die ab 2025 geboren werden?
Generationsforscher Dr. Rüdiger Maas erklärt, wie KI, Fake-News und neue Jobs die Zukunft der Generation Beta prägen werden – und warum wir keine Angst davor haben sollten.
KI = Fake News? Darum ist Katharina Zweig kein Fan des FCK
"Künstliche Intelligenz halluziniert", sagt Katharina Zweig kurz und knapp. Und beschreibt damit, was wir heute mehr und mehr erleben, wenn wir im Netz nach Antworten suchen.
Jeder ist einfach erstmal begeistert, was sich damit machen lässt. Man blendet dann aus, dass die Maschine doch relativ häufig Sachen erzählt, die so nicht wahr sind.
KI erfindet jede dritte Antwort
Eine Studie der Europäischen Rundfunkunion zeigt alarmierende Fehlerquoten bei populären KI-Chatbots. Die Systeme erfinden regelmäßig Informationen.
Katharina Zweig beschreibt diese "KI Halluzinationen" an einem Beispiel. Wer im Internet nach ihrem Namen sucht, findet nicht nur den Hinweis darauf, dass sie Professorin für Informatik in Kaiserslautern ist. Es könnte durchaus auch sein, dass sie als "glühender Fan des 1. FC Kaiserslautern" bezeichnet wird. Der Grund: die Maschine assoziiert den Wohnort auch mit sportlichen Interessen – ganz egal, ob das auch den Tatsachen enstpricht.
Menschen würden sie eher fragen "Du wohnst in Kaiserslautern, bist Du ein FCK Fan?", während eine KI das eher als Tatsache hinstelle. Zweig macht damit auch einen weiteren, für sie wichtigen Unterschied klar. Nicht die KI ist diejenige, die Fake News produziert: Es sind die Menschen, die die KI nutzen oder sie entsprechend programmieren.
Das Problem mit den Fake News wird riesengroß werden. Man kann heute keinem Video und keinem Bild mehr glauben. Das ist ein Riesenproblem. Aber es ist nicht die KI, es sind weiterhin die Menschen, die diese KI verwenden, um Fake News herzustellen.
Gefahr: So verlockend ist unsere Zukunft mit KI
Das Geschäftsmodell von KI, sagt Katharina Zweig, bestehe darin, dass wir möglichst lange mit den Maschinen interagieren. Heißt: Die Firmen verdienen um so mehr, je länger die Nutzungsdauer ist. Die riesigen Investitionen in die neue Technik sollen sich natürlich auszahlen. Die Folge: Die Inhalte werden immer extremer.
Wir Menschen haben ein Dopaminsystem, ein Belohnungssystem. Das heißt, dass Reize immer extremer werden müssen, um uns bei der Stange zu halten. Die Maschinen neigen dann dazu, uns immer extremeres Zeug zu servieren, um uns bei der Stange zu halten. Das wird nicht gut ausgehen.
Das führt auch dazu – so beschrieb das Digitaltrainer Daniel Wolff in SWR1 Leute – dass Jugendliche besonders Abends und Nachts für lange Zeit am Tablet gehalten werden. Und das mit Inhalten, die so gar nicht für sie geeignet sind: Sex- und Gewaltvideos sind nicht Ausnahme, sondern Regel.
Digitaltrainer Daniel Wolff | 14.4.2025 Was Kinder am Handy und im Internet wirklich erleben
Daniel Wolff ist Gymnasiallehrer und Vater. Er gibt Tipps für den Umgang von Kindern und Jugendlichen mit Smartphones. Und er weiß, wie Eltern dabei am besten unterstützen können.
Ist Künstliche Intelligenz auch das Ende fürs Radio?
Und wie sieht nach Meinung der KI-Expertin Katharina Zweig die Zukunft einzelner Branchen aus? Zum Beispiel – in eigener Sache gefragt: Werden Radiomoderator:innen bald von virtuellen KI-Moderations-Assistenten abgelöst? Nein, sagt Zweig:
Am Ende wollen Menschen Menschen zuhören. Sie wollen etwas Authentisches. Sie wollen wissen, wie andere Menschen fühlen. Es sind eher andere Jobs, die viele Routineaufgaben haben, die sich stark verändern werden.