Wie kann KI genutzt werden, um problematische Inhalte online zu moderieren? Nach welchen Mustern erfolgen Cyberangriffe auf Large Language Models? Diese und weitere Fragen an der Schnittstelle von Cybersecurity und KI untersuchen sieben neue Forschungsprojekte an der TUM – finanziert von Google.
Google und die Technische Universität München (TUM) treiben die Forschung zum Thema Cybersicherheit und Künstliche Intelligenz (KI) voran. Durch eine Finanzierung von Google werden an der TUM sieben neue Forschungsprojekte gestartet, die zentrale Fragen an der Schnittstelle von Cybersecurity und KI untersuchen sollen: Wie kann KI genutzt werden, um problematische Inhalte wie Hassrede online zu moderieren? Welche Datenschutzrisiken bestehen bei „General-Purpose“-KI-Modellen und wie werden diese in Europa wahrgenommen? Nach welchen Mustern erfolgen Cyberangriffe auf Large Language Models (LLMs)? Die Arbeit in den sieben Projekten wird von Professor:innen der TUM geleitet und durch deren Teams umgesetzt. Expert:innen von Google stehen jeweils beratend zur Seite. Im Rahmen der Förderung entstehen auch sieben neue Stellen für Doktorand:innen.
Prof. Thomas F. Hofmann, TUM-Präsident: „KI hat begonnen, unseren Alltag zu durchdringen. Deshalb ist die Weiterentwicklung von KI-Technologien entscheidend. Damit dies gesellschaftlich akzeptabel ist, müssen diese Technologien möglichst zuverlässig und sicher sein. Gemeinsam mit Google treiben wir diese Entwicklungen voran.“
Dr. Wieland Holfelder, Vice President Engineering & Site Lead Google München: „Fragen rund um Cybersicherheit und Künstliche Intelligenz verschmelzen mehr und mehr miteinander. Wie kann man KI so sicher wie möglich machen? Und wie kann KI helfen, unsere digitale Infrastruktur besser zu schützen? Das sind zentrale Fragen, die wir am Google Safety Engineering Center bearbeiten, und die auch auf der bevorstehenden Münchner Sicherheitskonferenz im Mittelpunkt stehen werden. Wir freuen uns, gemeinsam mit der TUM die Forschung zu diesen Schlüsselthemen weiter voranzubringen.“
Sichere Kompilierung leistungsstarker Parallelitätsmodelle (Prof. Pramod Bhatotia): Wie kann gewährleistet werden, dass die für Parallel-Computing-Architekturen angepasste Software sicher ist und keine Schwachstellen aufweist?
Large Language Models (LLMs) für die Analyse von Programmcode im Hinblick auf Sicherheitsschwachstellen und Datenschutzverletzungen (Prof. Claudia Eckert): Wie können mit neuartigen, LLM-basierten, automatisierten Verfahren Datenschutz- und Sicherheitsschwachstellen in sehr große Codebasen effizienter und präziser ermittelt werden?
Sondenpositionierung (Prof. Georg Sigl): Hardware kann Informationen preisgeben, die von einer elektromagnetischen Sonde ausgespäht werden können. Die Positionierung der Sonde ist ein offenes Problem. Wie kann KI helfen, Seitenkanalmessungen reproduzierbarer und so die Hardware sicherer zu machen?
Seitenkanalanalyse der Post-Quantenkryptographie (Prof. Georg Sigl): Wie können automatisch alle Seitenkanallecks der Implementierungen von Quantencomputerresistenter Kryptographie erkannt werden?
Einstellungen verstehen und Akzeptanz von KI-gestützten Ansätzen zur Inhaltsmoderation fördern (Prof. Jens Großklags): LLMs können zur Automatisierung der Moderation von Inhalten eingesetzt werden, um Hassreden, Sexismus oder Cyber-Mobbing im Internet zu erkennen. Doch wie effektiv sind solche KI-gesteuerten Ansätze und wie werden sie von menschlichen Nutzer:innen wahrgenommen?
Datenschutzrisiken von allgemeinen KI-Systemen: Stakeholder-Perspektiven in Europa (Prof. Florian Matthes): Welche Datenschutzrisiken bestehen in neuen General-Purpose-AI-(GPAI)-Systemen wie LLMs? Wie werden diese Risiken im europäischen Raum wahrgenommen?
Angriffe auf Sprachmodelle verstehen (Prof. Stephan Günnemann): LLMs können angegriffen werden – beispielsweise durch böswillige Aufforderungen, private Benutzerdaten preiszugeben. Es soll besser verstanden werden, wie solche Attacken im Allgemeinen funktionieren, was sie in LLMs auslösen und wie man sie verhindern kann.