Umgekehrt kann KI jedoch ebenso genutzt werden, um sich zu schützen. IT-Fachleute können Quellcodes von ChatGPT auf Schwachstellen überprüfen lassen und so Sicherheitslücken in ihrem eigenen Code mit Hilfe von ChatGPT erkennen und ausmerzen. Auch könnte man eine Mail von ChatGPT darauf untersuchen, ob es sich hier eventuell um eine Phishing-Mail handelt oder die Mail authentisch ist.
Hundertprozentige Sicherheit erreicht jedoch nicht, wer sich nur auf technische Hilfsmittel verlässt. Sämtliche Phishing-Angriffe zielen auf das Unwissen und die Unachtsamkeit des Opfers ab, während der Enkeltrick nur funktioniert, wenn dem Angreifer detaillierte Informationen vorliegen. Es ist also möglich, sich vor KI-gestützten Attacken zu schützen: Ein sparsamer Umgang mit privaten Informationen und eine kritische Überprüfung von auffälligen E-Mails können oft größten Schaden verhindern.