Wie verändert künstliche Intelligenz Cybersicherheit?
Cybersicherheit beschäftigt aktuell Forschung, Politik und Gesellschaft. Aktuelle Entwicklungen bei künstlicher Intelligenz (KI) zeigen, wie dringlich das Thema ist: Neue Varianten der Sprachmodelle Claude und ChatGPT sind nicht öffentlich zugänglich [I] [II] – laut den Anbietern aus Angst vor Cybersicherheitsrisiken.
Auf Basis von niedrigschwellig in natürlicher Sprache formulierten Anweisungen erstellen große Sprachmodelle mittlerweile Webseiten oder Computerprogramme. Die Modelle generieren aber nicht nur neuen Code, sondern analysieren auch erfolgreich bestehende Software – und finden deren Schwachstellen. Ist eine Schwachstelle identifiziert, kommt es darauf an, ob Softwareanbieter die Lücke rechtzeitig schließen oder Hacker sie ausnutzen können. Eine deutsche Forschungsgruppe hat nun in Zusammenarbeit mit Anthropic, OpenAI und Google – den Anbietern von Claude, ChatGPT und Gemini – die Cyber-Fähigkeiten großer Sprachmodelle getestet. Sie untersuchten, wie gut die KIs darin sind, gefundene IT-Sicherheitslücken auszunutzen. Offiziell will die Gruppe die Ergebnisse im Dezember auf einer der wichtigsten internationalen KI-Konferenzen präsentieren, der NeurIPS. Eine Vorabversion der Untersuchung ist auf dem Preprint-Server Arxiv verfügbar und Mitautor Thorsten Holz wird im Pressegespräch des SMC die wichtigsten Inhalte vorstellen.
Auf unserem Youtube-Kanal können Sie das Video in der Sprecheransicht oder Galerieansicht anschauen.
Das Transkript können Sie hier als PDF herunterladen.
„Ich habe keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
Alle anderen: Keine Angaben erhalten
Literaturstellen, die vom SMC zitiert wurden
[I] Science Media Center (2026): Anthropics KI-Modell schürt Angst vor Cyberangriffen. Statements. Stand: 09.04.2026.
[II] OpenAI (14.04.2026): Trusted access for the next era of cyber defense. Blogpost.
[III] Bundeskriminalamt (12.05.2026): Bundeslagebild Cybercrime 2025: Deutschland im Fokus von Cyberkriminellen. Pressemitteilung mit Link zum Bericht.
[IV] Bundesamt für Sicherheit in der Informationstechnik (11.05.2026): Cyberkriminalität im Alltag: Jede zehnte Person in Deutschland allein im Vorjahr betroffen. Pressemitteilung.
[V] Balzarotti D et al. (2026): Public Letter of Support for a European Grand Challenge in AI and Security. Offener Brief. Abgerufen am: 12.05.2026.
Dr. Jonas Geiping
Leiter der Forschungsgruppe „Safety- & Efficiency- aligned Learning“ am ELLIS Institut Tübingen und am Max-Planck-Institut für Intelligente Systeme, Tübingen
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Thorsten Holz
wissenschaftlicher Direktor, Max-Planck-Institut für Sicherheit und Privatsphäre, Bochum
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Konrad Rieck
Leiter des Lehrstuhls für Maschinelles Lernen und Sicherheit, Berlin Institute for the Foundations of Learning and Data (BIFOLD), Technische Universität Berlin