Die Bedrohung in Deutschlands Cyberraum ist laut BSI so hoch wie nie zuvor. Eine potenzielle Gefahr sticht besonders ins Auge: Künstliche Intelligenz. In Teil 2 der Security-Predicitions-Serie beleuchten Experten von Sophos und Kaspersky, wie KI sowohl dem Angriff als auch der Abwehr dient.
Ein Grund für die Zunahme der Cyberkriminalität ist ohne Zweifel auch auf den Einsatz von Künstlicher Intelligenz zurückzuführen. Mit ChatGPT, Bard und LlaMa sowie einer Vielzahl weiterer Tools ist KI in einer breiten, auch wenig technikaffinen Öffentlichkeit angekommen. Diese Tools sind einfach zu bedienen und liefern eine hohe Qualität. Dabei können sie auch für kriminelle Zwecke missbraucht werden und Cyberkriminellen einen „Zeit- und Geschwindigkeitsvorteil liefern“, sagt Stefan Fritz von Sophos. So können sie dafür sorgen, dass sogenannte Deepfakes – manipulierte Bilder, Videos und Stimmen – immer authentischer werden und dadurch immer schwerer zu entlarven sind. Auch kann KI Phishing-Mails glaubwürdiger machen, im Social Web zu Desinformationskampagnen beitragen oder selbst Schadcode generieren. „Mit dieser neuen Technologie ist es einfach vieles möglich. Was man früher als komische E-Mail mit schlechten Bildern, schlechtem Text und vielleicht einem schlechten Deutsch sofort erkannt hat, das können jetzt selbst Fachleute und geschulte Mitarbeiter nicht mehr analysieren, weil es zu gut geworden ist“, unterstreicht der Director Channel Sales EMEA Central bei Sophos.
40 Prozent der befragten Unternehmen haben Angst vor genau dieser Art von Phishing-Attacken hatten, stellt der Cyber Security Report von Sophos1 stellt fest. Hinzu komme, dass KI selbst mittelmäßigen Hackern die Möglichkeit verschaffe mitzuspielen.
Nicht außer Acht gelassen werden sollte, dass Künstliche Intelligenz auch selbst zur Schwachstelle werden kann, indem sie gehackt und missbräuchlich eingesetzt wird. Das stellt das Schwachstellenmanagement in Unternehmen und Behörden vor noch nie dagewesene Herausforderungen. Eine Studie von Kaspersky2 stellt heraus, dass mehr als die Hälfte der Führungskräfte ein hohes Datenschutzrisiko sehen, wenn es um die berufliche Nutzung von ChatGPT geht. „Die benannten Risiken, die wir haben, sind Datenlecks von den Providern oder den Anbietern. Oder ein Angriff auf diese Provider, bei denen dann Daten abfließen könnten. Auch geht es um die Speicherung der Daten, welche dort abgelegt“, fasst Waldemar Bergstreiser, General Manager bei Kaspersky DACH, zusammen. Das schließe auch das Hacking der User Accounts solcher Anbieter ein.
Die positive Kehrseite der Medaille: KI kann nicht nur zum Angriff, sondern auch zur Cyberabwehr eingesetzt werden. Stefan Fritz von Sophos sieht hier vor allem zwei hauptsächliche Einsatzmöglichkeiten. Erstens könne KI Masse machen. „Sie ermöglicht eine bessere Erkennung von Anomalien in großen Datensätzen, weil sie einfach viele Sachen auf einmal bewerten kann.“ Verbunden mit einem MDR-Service – und das ist laut Fritz der zweite entscheidende Punkt – helfe die KI dann weiter, um zum Beispiel etwas zu simulieren oder gewisse Abfolgen zu machen und Rückschlüsse zu ziehen. „Wir, die Verteidiger, müssen halt auch wieder schneller werden. Und da ist es wichtig, dass wir ein Ökosystem haben, was da zusammenarbeitet und dem entgegenwirken kann“, betont der Sophos-Director.
1 https://www.sophos.com/de-de/whitepaper/state-of-cybersecurity?utm_source=google&utm_medium=cpc&utm_campaign=mg-2023-dach-de-demg-gog-bra-convr-all-search-phrase&utm_term=sophos&utm_content=na&cmp=7014w000001sncMAAQ&gad_source=1&gclid=EAIaIQobChMIm6_Z3LDVgwMVIoCDBx0rFgtoEAAYASABEgK_6PD_BwE&gclsrc=aw.ds
2 https://www.kaspersky.de/about/press-releases/2023_haben-unternehmen-den-einsatz-von-generativer-ki-noch-im-griff