Eine KI hackt eine andere KI. Plötzlich errät das KI-Sprachmodell wie man eine Bombe baut oder ein Auto knackt. Das sind die Ergebnisse eines Stuttgarter Forschungsteams.
Zum Web-Artikel
Stuttgarter Studie zu KI-Sicherheit Wenn ein KI-Sprachmodell eine andere KI hackt - und Tipps zum Bombenbau gibt
Ein Forschungsteam der Uni Stuttgart hat gezeigt, wie leicht KI-Sprachmodelle gehackt werden können. Eine KI überredet die andere - und plötzlich liefert sie gefährliche Antworten.