Auftragsforschung

Google und TUM stärken Kooperation zu Cybersicherheit und KI

15. Februar 2024, 7:30 Uhr | Diana Künstler
© Bussarin/AdobeStock

Wie kann KI genutzt werden, um problematische Inhalte online zu moderieren? Nach welchen Mustern erfolgen Cyberangriffe auf Large Language Models? Diese und weitere Fragen an der Schnittstelle von Cybersecurity und KI untersuchen sieben neue Forschungsprojekte an der TUM – finanziert von Google.

Google und die Technische Universität München (TUM) treiben die Forschung zum Thema Cybersicherheit und Künstliche Intelligenz (KI) voran. Durch eine Finanzierung von Google werden an der TUM sieben neue Forschungsprojekte gestartet, die zentrale Fragen an der Schnittstelle von Cybersecurity und KI untersuchen sollen: Wie kann KI genutzt werden, um problematische Inhalte wie Hassrede online zu moderieren? Welche Datenschutzrisiken bestehen bei „General-Purpose“-KI-Modellen und wie werden diese in Europa wahrgenommen? Nach welchen Mustern erfolgen Cyberangriffe auf Large Language Models (LLMs)? Die Arbeit in den sieben Projekten wird von Professor:innen der TUM geleitet und durch deren Teams umgesetzt. Expert:innen von Google stehen jeweils beratend zur Seite. Im Rahmen der Förderung entstehen auch sieben neue Stellen für Doktorand:innen.

Prof. Thomas F. Hofmann, TUM-Präsident: „KI hat begonnen, unseren Alltag zu durchdringen. Deshalb ist die Weiterentwicklung von KI-Technologien entscheidend. Damit dies gesellschaftlich akzeptabel ist, müssen diese Technologien möglichst zuverlässig und sicher sein. Gemeinsam mit Google treiben wir diese Entwicklungen voran.“ 

Dr. Wieland Holfelder, Vice President Engineering & Site Lead Google München: „Fragen rund um Cybersicherheit und Künstliche Intelligenz verschmelzen mehr und mehr miteinander. Wie kann man KI so sicher wie möglich machen? Und wie kann KI helfen, unsere digitale Infrastruktur besser zu schützen? Das sind zentrale Fragen, die wir am Google Safety Engineering Center bearbeiten, und die auch auf der bevorstehenden Münchner Sicherheitskonferenz im Mittelpunkt stehen werden. Wir freuen uns, gemeinsam mit der TUM die Forschung zu diesen Schlüsselthemen weiter voranzubringen.“ 

Anbieter zum Thema

zu Matchmaker+

Zusammenarbeit zwischen TUM und Google

Durch die neue Auftragsforschung im Bereich Cybersicherheit und KI vertiefen Google und TUM ihre Partnerschaft. 2018 wurde Google als erstes nicht-europäisches Unternehmen Exzellenzpartner der Universität. Darüber hinaus unterstützt Google seit 2022 TUM-Initiativen, die Frauen auf ihrem Karriereweg in den MINT-Fächern Mathematik, Informatik, Naturwissenschaften und Technik fördern. Im Februar 2023 wurde von der TUM unter Verwendung einer nicht zweckgebundenen Spende von Google das TUM Innovation Network zum Thema Cybersecurity ins Leben gerufen1. Google hat außerdem sein globales Safety Engineering Center (GSEC) in München angesiedelt.

Über die sieben Forschungsprojekte

  1. Sichere Kompilierung leistungsstarker Parallelitätsmodelle (Prof. Pramod Bhatotia): Wie kann gewährleistet werden, dass die für Parallel-Computing-Architekturen angepasste Software sicher ist und keine Schwachstellen aufweist?
  2. Large Language Models (LLMs) für die Analyse von Programmcode im Hinblick auf Sicherheitsschwachstellen und Datenschutzverletzungen (Prof. Claudia Eckert): Wie können mit neuartigen, LLM-basierten, automatisierten Verfahren Datenschutz- und Sicherheitsschwachstellen in sehr große Codebasen effizienter und präziser ermittelt werden?
  3. Sondenpositionierung (Prof. Georg Sigl): Hardware kann Informationen preisgeben, die von einer elektromagnetischen Sonde ausgespäht werden können. Die Positionierung der Sonde ist ein offenes Problem. Wie kann KI helfen, Seitenkanalmessungen reproduzierbarer und so die Hardware sicherer zu machen?
  4. Seitenkanalanalyse der Post-Quantenkryptographie (Prof. Georg Sigl): Wie können automatisch alle Seitenkanallecks der Implementierungen von Quantencomputerresistenter Kryptographie erkannt werden?
  5. Einstellungen verstehen und Akzeptanz von KI-gestützten Ansätzen zur Inhaltsmoderation fördern (Prof. Jens Großklags): LLMs können zur Automatisierung der Moderation von Inhalten eingesetzt werden, um Hassreden, Sexismus oder Cyber-Mobbing im Internet zu erkennen. Doch wie effektiv sind solche KI-gesteuerten Ansätze und wie werden sie von menschlichen Nutzer:innen wahrgenommen?
  6. Datenschutzrisiken von allgemeinen KI-Systemen: Stakeholder-Perspektiven in Europa (Prof. Florian Matthes): Welche Datenschutzrisiken bestehen in neuen General-Purpose-AI-(GPAI)-Systemen wie LLMs? Wie werden diese Risiken im europäischen Raum wahrgenommen?
  7. Angriffe auf Sprachmodelle verstehen (Prof. Stephan Günnemann): LLMs können angegriffen werden – beispielsweise durch böswillige Aufforderungen, private Benutzerdaten preiszugeben. Es soll besser verstanden werden, wie solche Attacken im Allgemeinen funktionieren, was sie in LLMs auslösen und wie man sie verhindern kann.
     

1 https://www.tum.de/aktuelles/alle-meldungen/pressemitteilungen/details/12-millionen-euro-spende-fuer-datenschutz-und-cybersecurity


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Google Germany GmbH

Weitere Artikel zu Google

Weitere Artikel zu Google

Weitere Artikel zu Technische Universität München

Weitere Artikel zu Technische Universität München Lehrstuhl für Biomedizinische Physik Physik-Department (E17)

Weitere Artikel zu Security-Software

Weitere Artikel zu Security-Hardware

Weitere Artikel zu Industrial-/OT-Security

Weitere Artikel zu Cyber-Security

Weitere Artikel zu Safety und Security

Weitere Artikel zu Security-Service-Provider

Weitere Artikel zu Cyber-Security-Lösungen

Weitere Artikel zu Managed Security

Weitere Artikel zu Security-Management

Weitere Artikel zu Security-Services

Weitere Artikel zu Cybersecurity/Cybersicherheit

Weitere Artikel zu IoT-Security

Weitere Artikel zu Mobile Security

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Matchmaker+