Kaspersky: ChatGPT eignet sich nur eingeschränkt für bestimmte Security-Aufgaben

Sprach-Bot (noch) kein Ersatz für Sicherheitsfachleute

4. Mai 2023, 12:30 Uhr | Jörg Schröper
© Wolfgang Traub

Diskussionen rund um die künstliche Intelligenz und dazu, ob sie eine Chance oder doch Jobkiller sein wird, gab es in den vergangenen Jahren immer wieder. Mit der Vorstellung von ChatGPT nahm die Debatte neuen Schwung auf. Laut aktueller Studien erhoffen sich Arbeitgeber und Arbeitnehmer durch den Chatbot eine Steigerung der Produktivität. Je nach Branche fürchtet man jedoch auch Stellenstreichungen. Was dies für die Cybersicherheitsbranche bedeutet, ist noch strittig.

Laut aktuellen Untersuchungen von Kaspersky dürften die Jobs von Sicherheitsexperten erst einmal sicher sein. In einem Experiment testeten die Kaspersky-Experten die Fähigkeit von ChatGPT zur Erkennung von Phishing-Links. Das Resultat ist ernüchternd: Während ChatGPT zwar Phishing-E-Mails erstellen und Malware schreiben könnte, zeigte sich das Tool bei der Erkennung schädlicher Links nur eingeschränkt effizient. Zwar „weiß“ ChatGPT sehr viel über Phishing und kann das Ziel eines Phishing-Angriffs erraten, weist aber in der Erkennung selbst – abhängig von der verwendeten Eingabeaufforderung – eine hohe False-Positive-Rate auf.

Im Experiment stellten die Forscher ChatGPT zwei Fragen: „Führt dieser Link zu einer Phishing-Website?“ und „Ist der Besuch dieses Links sicher?“. ChatGPT erzielte bei der ersten Frage eine Erkennungsrate von 87,2 Prozent und eine False-Positive-Rate von 23,2 Prozent. Die zweite Frage: „Ist es sicher, diesen Link zu besuchen?“ hatte zwar eine höhere Erkennungsrate von 93,8 Prozent, aber gleichzeitig eine höhere False-Positive-Rate von 64,3 Prozent – zu hoch für jede Art von Produktionsanwendung.

Auch wenn ChatGPT Schwächen bei der Erkennung von Phishing vorweist, könnte es menschliche Sicherheitsexperten bei der Klassifizierung und Untersuchung von Angriffen unterstützen. Cyberkriminelle erwähnen in ihren Links typischerweise beliebte Marken, um Nutzer zu täuschen, dass eine URL legitim ist und zu einem seriösen Unternehmen gehört.

Bei der Identifizierung solch potenzieller Phishing-Ziele zeigte das KI-Tool gute Ergebnisse. Beispielsweise extrahierte ChatGPT – ohne zusätzliches Training dafür – erfolgreich ein Ziel aus mehr als der Hälfte der gefälschten URLs, darunter unter anderem große Technikportale wie Facebook, TikTok und Google, Marktplätze wie Amazon und Steam sowie zahlreiche Banken aus der ganzen Welt.

Vladislav Tushkanov, Lead Data Scientist bei Kaspersky, über die Zusammenarbeit mit KI: „ChatGPT ist sicher vielversprechend, wenn es darum geht, menschliche Analysten bei der Erkennung von Phishing-Angriffen zu unterstützen. Trotzdem haben solche Sprachmodelle immer noch ihre Grenzen. Aktuell können sie zwar mit einem angehenden Phishing-Analysten mithalten, wenn es darum geht, Phishing-Angriffe einzuordnen und potenzielle Ziele herauszufinden, aber oft neigen sie dazu, zufällige Ergebnisse zu produzieren. Auch wenn KIs die Cybersicherheitslandschaft derzeit noch nicht revolutionieren, könnten sie dennoch schon jetzt hilfreiche Tools für die Community darstellen.“
 

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Kaspersky

Weitere Artikel zu Cybercrime

Weitere Artikel zu tpu-Testsysteme für Prüfungen unter Umwelteinflüssen

Weitere Artikel zu SMART TESTSOLUTIONS GmbH

Weitere Artikel zu Karl Jautz GmbH & Co. KG

Weitere Artikel zu RPV - Rainer Pahl Distribution

Matchmaker+