Gastkommentar von Verizon

Sicherheit im Wandel: Wie Generative KI die Cyberwelt prägt

12. Januar 2024, 8:07 Uhr | Autor: Arno Edelmann / Redaktion: Diana Künstler
© jr-art/AdobeStock

Generative KI hat in kürzester Zeit einen enormen Aufschwung erlebt. Doch wie bei jeder neuen Technologie gibt es auch hier Risiken, die oft erst im Nachhinein nach einem Verstoß oder Zwischenfall erkannt werden. Umso wichtiger ist es, die Risiken zu verstehen und vorherzusehen.

Neue Technologien und Innovationen sind einerseits aufregend, bringen aber oft auch Risiken mit sich. Was beispielsweise früher im Bankwesen ein exklusiver Austausch zwischen Kunde und Berater vor Ort war, wurde nun zu einer digitalen Transaktion. Diese Entwicklung hat zwar viele Erleichterungen mit sich gebracht, birgt aber auch Gefahren. Online-Banking ist nicht gleichbedeutend mit „Surfen im Internet“, denn es sind andere Protokolle erforderlich, einschließlich größerer Sicherheitsmaßnahmen wie die Zwei-Faktor-Authentifizierung. Ohne einige dieser Schutzmaßnahmen wäre Online-Banking nicht praktikabel. Das Gleiche gilt für die generative KI.

Generative KI hat in kürzester Zeit einen enormen Aufschwung erlebt und wird sowohl von Start-ups als auch von etablierten Unternehmen schnell angenommen. Laut einer aktuellen Studie des McKinsey Global Institute (MGI)1 wird die generative KI den Wandel der Arbeitswelt weiter beschleunigen. Denn die Technologie hat das Potenzial, Arbeitsprozesse zu automatisieren, Menschen von Routinetätigkeiten zu befreien und so neue Räume für Kreativität und Innovation zu schaffen. Wie bei jeder neuen Technologie gibt es auch hier Risiken, die in vielen Fällen erst im Nachhinein nach einem Verstoß oder Zwischenfall erkannt werden.

Die Verbreitung generativer KI lässt sich weder ignorieren noch beenden. Umso wichtiger ist es, dass wir ihre Risiken verstehen und vorhersehen. Zu den Risiken gehören unter anderem die beeindruckende Fähigkeit, Menschen zu imitieren, sowie die potenzielle Fähigkeit, Cyberangriffe zu skalieren. Wird diese Gefahr übersehen, so kann generative KI erhebliche negative Auswirkungen auf alle Branchen in der Cybersicherheits-Landschaft haben, so auch im Bankwesen.

Anbieter zum Thema

zu Matchmaker+

Mensch oder Maschine?

Die zunehmende Raffinesse der generativen KI bei der Verarbeitung natürlicher Sprache stellt eine erhebliche Gefahr dar. KI kann Sprachmuster und -tendenzen imitieren, um sich als Mensch oder Organisation auszugeben. Es wird immer schwieriger werden, zwischen Mensch und Maschine zu unterscheiden. Es gibt Stimmen, die behaupten, KI könne bereits den Turing-Test bestehen, bei dem geprüft wird, ob Maschinen denken können. Dies ist besonders beunruhigend, wenn man bedenkt, welche wichtige Rolle Menschen bei Cyberangriffen spielen, wie der Verizon Data Breach Investigations Report (DBIR)2 zeigt.

Demnach könnten Hacker generative KI nutzen, um Menschen durch Social Engineering auszunutzen – eine Methode, bei der Menschen psychologisch manipuliert werden, um sie zur Preisgabe sensibler Unternehmensdaten zu bewegen. Die sich entwickelnden Fähigkeiten der generativen KI zur Verarbeitung natürlicher Sprache können solche Social-Engineering-Versuche sehr effektiv vereinfachen. Sie wird es Angreifern auch ermöglichen, Cyberangriffe in Sprachen durchzuführen, die nicht ihre Muttersprache sind, da KI in der Lage ist, Sprache in eine Form umzuwandeln, die sich wie die eines Muttersprachlers liest.

Die Bedrohung wird zusätzlich durch die sich verändernden Arbeitsplatzmodelle verstärkt, bei denen die Mitarbeiter zwischen Büro und Home-Office sowie zwischen dienstlichen und privaten Geräten wechseln. Dies erschwert die Verwaltung von Anmeldedaten und stellt ein Sicherheitsrisiko für Unternehmen dar.

Cyberattacken skalieren

In der Vergangenheit war das Hacken ein zeit- und arbeitsaufwändiger Prozess, für den mehrere Hacker benötigt wurden. Mit KI können Angreifer jedoch die zeitaufwändige Arbeit des Hackens, einschließlich des Sammelns von Daten über ein Ziel, erheblich reduzieren. Internationale Akteure, die in der Regel über mehr finanzielle Mittel verfügen, werden sehr wahrscheinlich die Mittel haben, in hoch entwickelte KI zu investieren, die es ihnen ermöglicht, Cyberangriffe zu automatisieren und auf größere Gebiete auszuweiten. Sie könnten mehr Ziele angreifen, was zu höheren Erfolgsquoten für Hacker führen könnte, insbesondere wenn Unternehmen keine Gegenmaßnahmen ergreifen.

Der Bedarf an „Zero Trust“ nimmt zu

Welche Möglichkeiten haben Unternehmen, wenn sie nicht mehr zwischen Mensch und KI unterscheiden können? Wie können sie Daten und Informationen schützen und ihnen vertrauen? Die Wahrheit ist: Sie können es nicht. Diese neue Realität erfordert eine Zero-Trust-Mentalität, eine Sicherheitsphilosophie, die verlangt, dass alle Benutzer authentifiziert, autorisiert und kontinuierlich validiert werden.

Während der „Never Trust, Always Verify“-Ansatz für die Cybersicherheit bestätigt, dass Sicherheitsbedrohungen von überall herkommen können, auch aus dem eigenen Unternehmen, beschränkt sich der „Zero Trust“-Ansatz hingegen nicht auf die strenge Authentifizierung. Er wendet das gleiche Maß an Strenge auch auf die Bewertung von Anwendungen und Infrastruktur an, einschließlich Lieferkette, Cloud, Switches und Router.

Die Büchse der Pandora

Arno Edelmann, Verizon Business
Arno Edelmann ist Senior Sales Manager Security bei Verizon Business.
© Verizon Business

KI wird bleiben, ob es den Menschen und Unternehmen nun gefällt oder nicht. Sie treibt bereits den Wandel in allen Branchen voran und hat das Potenzial, große Umwälzungen herbeizuführen. Ärzte werden bessere Einblicke in Echtzeit erhalten, Produzenten werden in der Lage sein, Probleme mit Maschinen am Fließband vorherzusehen, und so weiter. Doch wenn man Prozesse automatisiert, wie es bei der künstlichen Intelligenz der Fall ist, besteht die Gefahr, dass sich Fehler häufen, was wiederum zu größeren Risiken führen kann. Deshalb müssen wir wachsam bleiben, während wir weiterhin Daten aus all den neu entstehenden Anwendungsfällen von KI in allen Branchen sammeln.

KI ist ein Werkzeug, und wie jedes Werkzeug kann es zum Nutzen oder zum Schaden eingesetzt werden. Wir müssen KI produktiv nutzen und gleichzeitig vorausschauen, wie sie gegen uns eingesetzt werden könnte.

1 https://www.mckinsey.de/news/presse/genai-ist-ein-hilfsmittel-um-die-produktivitaet-zu-steigern-und-das-globale-wirtschaftswachstum-anzukurbeln
2 https://www.verizon.com/business/de-de/resources/reports/dbir/


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Verizon Business

Weitere Artikel zu Cyber-Security-Lösungen

Weitere Artikel zu Managed Security

Weitere Artikel zu Security-Management

Weitere Artikel zu Security-Services

Weitere Artikel zu Cybersecurity/Cybersicherheit

Weitere Artikel zu Mobile Security

Weitere Artikel zu IoT-Security

Weitere Artikel zu Security-Software

Weitere Artikel zu Security-Hardware

Weitere Artikel zu Industrial-/OT-Security

Weitere Artikel zu Cyber-Security

Weitere Artikel zu Safety und Security

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Matchmaker+