Wollen Hacker Schwachstellen finden, über die sie in Systeme eindringen oder durch die sie Malware in Systeme bringen können, macht ihnen künstliche Intelligenz die Suche sehr leicht. Denn automatisiert kann KI sehr viele Schnittstellen der Opfer-Systeme auf Schwachstellen untersuchen. Stoßen Cyberkriminelle so auf Schwachstellen, ist die KI zur Unterscheidung in der Lage, ob sie als Einfallstor für bösartigen Code oder zum Lahmlegen des Systems dienen kann.
Inzwischen können Cyberkriminelle ihr Vorgehen dank künstlicher Intelligenz sogar dynamisch anpassen. Patrycja Schrenk erklärt: „Reagieren Hersteller beispielsweise mit Sicherheits-Patches, passt sich der intelligente Schadcode automatisiert so an, dass er dennoch wüten kann. Maschinelles Lernen sorgt also dafür, dass der Schadcode immer weiter lernt und sich so auf Veränderungen einstellen kann.“
Häufig werde KI auch in Verbindung mit Malware genutzt, die per E-Mail verteilt wird: „Dank KI kann die Malware das Nutzerverhalten noch besser imitieren. Die Texte in den E-Mails werden mit so immenser semantischer Qualität verfasst, dass ein Unterscheiden zu echten E-Mails durch Empfangende überaus schwer sein kann. Dabei lernt die künstliche Intelligenz mit jedem Mal aus Fehlern und optimiert bei jedem weiteren Angriff ihre Taktik weiter“, erklärt Schrenk.
Erpressung – etwa mithilfe von Ransomware, die typischerweise per E-Mail verteilt wird – gilt derzeit als eine der verbreitetsten Angriffsmethoden. „Um beispielsweise Geschäftsführende oder Führungskräfte erpressen zu können, bedarf es ausreichender Informationen über die Opfer. Zur Informationsbeschaffung setzen Cyberkriminelle inzwischen auf künstliche Intelligenz. Mittels KI durchsuchen sie beispielsweise soziale Netzwerke, Foren oder andere Websites gezielt nach Informationen zur Zielpersonen – und zwar viel effizienter, als es ohne KI möglich wäre“, so Schrenk. Daneben habe sich auch das Erraten von Passwörtern vereinfacht: „Bereits heute existieren derartige KI-Systeme, die durch maschinelles Lernen Passwörter erfolgreich erraten“, ergänzt die IT-Sicherheitsexpertin.
Künstliche Intelligenz umgeht aber auch Captcha, die eigentlich als Spam-Schutz fungieren. Durch Bildmosaike oder einfache Gleichungen erkennen Systeme, dass Nutzende Menschen und keine Maschinen sind. „Dummerweise durchbricht künstliche Intelligenz diese Barriere kinderleicht. Denn durch maschinelles Lernen werden KIs mit so vielen verschiedenen Bildern gefüttert, bis sie diese automatisiert erkennen und Captchas lösen können. Das hebelt diesen Sicherheitsmechanismus faktisch aus, und eine Unterscheidung zwischen Mensch und Maschine wird unmöglich“, so Schrenk.