Trend Micro kommentiert KI-Technik

ChatGPT und die Zukunft der IT-Security

6. Februar 2023, 12:00 Uhr | Jörg Schröper

Fortsetzung des Artikels von Teil 2

Scam

Die Fortschritte der KI in den letzten Jahren sind vor allem bezüglich Sprache und zwischenmenschliche Kommunikation zu beobachten. Das Besondere an ChatGPT ist auch, dass die Software nicht nur Bestehendes verwendet, sondern für Menschen interessante, neue Inhalte generiert. Damit liegt die Vermutung nahe, dass Kriminelle sie in diesem Bereich nutzen werden.

Zwischenmenschliche Kommunikation gibt es bei allen Scam-Varianten. Im Unternehmensbereich ist dies zum Beispiel die Methode Business E-Mail Compromise (BEC), bei der einem Mitarbeiter vorgegaukelt wird, er kommuniziere mit seinem Chef oder einem wichtigen Kunden. Und auch im privaten Bereich gibt es verschiedenste Varianten, wie diverse Romance Scams oder den berüchtigten „Prinzen aus Nigeria“.

Kurz: Das Opfer wird in einer direkten, häufig längeren Kommunikation überzeugt, am Ende unbedacht Geld an den Täter zu überweisen. Mit den aktuellen Möglichkeiten von ChatGPT dürften Mails kulturell optimiert werden, etwa mit Poesie.

Allerdings ist es auch hier eher die weitere Ausbaustufe, die Sorge bereitet. Das Erste, was fallen dürfte, sind Sprachbarrieren. Schon heute ist die KI auch in Deutsch erhältlich. Bisherige Übersetzungsmöglichkeiten können Wörter oder Sätze eindeutschen, aber nur schlecht den kulturellen Hintergrund einer Person übertünchen. Eine KI kann dies übernehmen. Schon heute gibt es verwandte Techniken im Bereich Deep Fakes, die es erlauben, die Gesichter von Menschen in Echtzeit auszutauschen und damit eine Identifikation über Video zu erschweren.

Darüber hinaus gibt es viele erprobte Betrugsschemata. Eine KI kann deshalb leicht mit erfolgreichen Fällen trainiert werden und daraus lernen, wie man Menschen am besten überzeugt. Täter können damit nicht nur ihre Effizienz steigern, sondern auch die Anzahl an Opfer, die sie parallel angreifen. Aber eine auf Betrug spezialisierte KI kann noch zu ganz anderen Einsatzszenarien führen, die man heute noch gar nicht abschätzen kann, so Werner weiter.

Die ChatGPT kann auch Software/Code entwickeln und debuggen. Daher gibt es die theoretische Möglichkeit, auch Malware zu erzeugen. In Proof-of-Concept-Versuchen wurde dies bereits nachgewiesen. Zwar passen die Entwickler von Open AI ihre Policies regelmäßig an, um das zu verhindern, dennoch gibt es immer wieder Beispiele, wie es dennoch funktioniert.

Noch gibt es Hürden: Der erstellte Code funktioniert zwar, fordert aber eine genaue Beschreibung durch den Anfrager. Auch wird darüber diskutiert, dass durch die KI erzeugter Code derzeit gerade bei der Softwareentwicklung noch nicht überzeugt. ChatGPT dürfte entschlossenen Cyberkriminellen deshalb heute tatsächlich noch relativ wenig nutzen. Allerdings ist auch hier die Ausbaustufe absehbar. Es ist klar, dass über kurz oder lang Angriffssoftware durch KI geschrieben wird.

Damit wird beispielsweise der Zeitraum zwischen Entdeckung einer Schwachstelle, Patch derselben und Cyberangriff darauf, auf wenige Minuten reduziert – und dies sogar für technisch eher unbegabte Kriminelle. All dies sind aber bekannte Herausforderungen, für die es im Bereich der Security Lösungen gibt. Schon jetzt ist die Branche mit täglich mehr als 300.000 neuen bösartigen Dateien pro Tag konfrontiert. Werner weiter: „Wir sprechen von Zero Days und wenigen Stunden Zeit, und längst hat auch bei uns die KI die Arbeit übernommen, vor allem Unbekanntes an der Art des Vorgehens zu identifizieren.“

Werners Fazit lautet: ChatGPT hat diese Entwicklung nicht angestoßen, sondern lediglich der Öffentlichkeit demonstriert, was in wissenschaftlichen Kreisen schon längst diskutiert wird. Man kann davon ausgehen, dass der Einsatz von KI vor allem bei der Erstinfektion eine Rolle spielen wird. Dort konkurriert Access-as-a-Service um Kunden, und die KI kann enorme Aufwände minimieren oder den Erfolg von Massenangriffen verbessern. Noch mehr als früher müssen in der Konsequenz Unternehmen davon ausgehen, dass es Angreifer schaffen werden, ihre primären Verteidigungsmechanismen auszuhebeln. 

Anbieter zum Thema

zu Matchmaker+

  1. ChatGPT und die Zukunft der IT-Security
  2. Phishing
  3. Scam

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu TREND MICRO Deutschland GmbH

Weitere Artikel zu Security-Services

Weitere Artikel zu Security-Management

Weitere Artikel zu Security-Service-Provider

Weitere Artikel zu silex technology europe GmbH

Weitere Artikel zu Razorcat

Weitere Artikel zu Datto

Weitere Artikel zu Adobe Systems GmbH

Weitere Artikel zu Albrecht Audio

Matchmaker+