Ähnlich wie Defender heute künstliche Intelligenz (KI) einsetzen, um Cyberbedrohungen zu bekämpfen, nutzen Hacker KI, um ihre Ziele auszunutzen. Dieser Trend manifestiert sich auf zwei Arten: Hacker, die KI-Tools für ihre Ziele einsetzen, und Hacker, die es auf Schwachstellen in KI-Apps abgesehen haben.
Hacker können generative KI nutzen, um bösartigen Code zu entwickeln, Schwachstellen zu erkennen und Exploits zu programmieren. In einer Studie stellten Forscher fest, dass ein weit verbreitetes Large Language Model (LLM) wie ChatGPT in 87 % der Fälle One-Day-Sicherheitslücken ausnutzen kann.
Wie aus dem X-Force Threat Intelligence Index hervorgeht, können Hacker LLMs auch verwenden, um Phishing-E-Mails in einem Bruchteil der Zeit zu verfassen – fünf Minuten im Vergleich zu 16 Stunden, die für die manuelle Erstellung derselben E-Mail benötigt würden.
Durch die Automatisierung wesentlicher Teile des Hacking-Prozesses können diese KI-Tools die Eintrittsbarriere in den Bereich des Hackings senken, was sowohl positive als auch negative Folgen hat.
- Positiv: Mehr gutartige Hacker können Unternehmen dabei helfen, ihre Verteidigung zu stärken und ihre Produkte zu verbessern.
- Negativ: Böswillige Akteure benötigen keine fortgeschrittenen technischen Fähigkeiten, um ausgeklügelte Angriffe zu starten – sie müssen sich lediglich mit einem LLM auskennen.
Was die wachsende Angriffsfläche für KI betrifft, so bietet die zunehmende Verbreitung von KI-Apps Hackern mehr Möglichkeiten, Unternehmen und Einzelpersonen zu schaden. Zum Beispiel können Angriffe, bei denen Daten verfälscht werden, die Leistung von KI-Modellen beeinträchtigen, indem minderwertige oder absichtlich verzerrte Daten in ihre Trainingssätze eingeschleust werden. Prompt-Injections verwenden böswillige Aufforderungen, um LLMs dazu zu bringen, sensible Daten preiszugeben, wichtige Dokumente zu zerstören oder Schlimmeres.