Untersuchung von Cisco Talos

Wo ChatGPT die Cybersicherheit unterstützen kann

Uhr
von Yannick Züllig und NetzKI Bot und tme

Cisco Talos hat untersucht, wie KI-Modelle wie ChatGPT Security-Teams bei der Abwehr von Cyberangriffen unterstützen können. Erste Ergebnisse zeigen Potenziale, aber auch klare Einschränkungen.

(Source: Timon / AdobeStock.com)
(Source: Timon / AdobeStock.com)

Künstliche Intelligenz (KI) spielt zunehmend eine Rolle in der Cybersicherheit. Doch können grosse Sprachmodelle wie ChatGPT tatsächlich dabei helfen, komplexe Bedrohungen abzuwehren? Dieser Frage ging das Team von Cisco Talos in einer aktuellen Untersuchung nach. Ziel war es, herauszufinden, ob und wie KI-gestützte Modelle Security-Teams bei der Erkennung, Analyse und Optimierung von Sicherheitsregeln unterstützen können.

thorsten

Thorsten Rosendahl, Technical Leader bei Cisco Talos. (Source: zVg)

"KI-gestützte Cyberangriffe erfordern auch KI bei der Abwehr", sagt Thorsten Rosendahl, Technical Leader bei Cisco Talos. Laut Rosendahl bieten grosse Sprachmodelle ein hohes Potenzial, insbesondere bei der Simulation von Angriffstechniken und der Verbesserung der Cybersicherheit in IT-Netzwerken.

Die Tests von Cisco Talos zeigten, dass ChatGPT (bzw. GPT-3.5) in einigen Bereichen hilfreich sein kann. So erleichtere das Modell beispielsweise das Verständnis komplexer Erkennungsregeln, indem es diese in natürlicher Sprache erkläre. Besonders hilfreich sei dies, wenn vollständige Regeltexte vorlägen, da die KI präzise und verständliche Beschreibungen liefern könne. Allerdings sei es in Einzelfällen zu Halluzinationen gekommen.

Ein weiteres Einsatzgebiet ist die Simulation von Bedrohungen. Hier zeigte sich, dass GPT-3.5 in der Lage ist, bösartige Auslöser für spezifische Erkennungsregeln zu generieren. Diese Befehle waren meist korrekt, mussten jedoch oft an die jeweilige Umgebung angepasst werden, wie Cisco Talos schreibt. Zudem hätten die Forschenden Sicherheitsvorkehrungen des Modells umgehen müssen, um solche Tests durchführen zu können.

Grenzen zeigte die KI jedoch bei der Umgehung von Erkennungsregeln. Zwar habe das Modell Vorschläge für bösartige Verhaltensweisen liefern können, diese seien jedoch selten praktisch umsetzbar und für Angreifer leicht zu erkennen. Somit ist GPT-3.5 in diesem Bereich nur eingeschränkt hilfreich, wie es weiter heisst.

"Trotz einiger Schwächen kann GPT-3.5 Security-Teams in bestimmten Bereichen unterstützen", so Rosendahl. Besonders die Fähigkeit, Informationen in natürlicher Sprache zu übersetzen und kreative Ansätze zu liefern, sei vielversprechend. Dennoch sieht er weiteren Forschungsbedarf, um das Potenzial solcher Modelle voll auszuschöpfen.

Die Ergebnisse von Cisco Talos verdeutlichen, dass KI-Modelle wie ChatGPT zwar nützliche Werkzeuge für die Cybersicherheit sein können, jedoch keine Allheilmittel darstellen. Vielmehr könnten sie in Zukunft als Ergänzung zu bestehenden Sicherheitslösungen dienen, um Security-Teams bei ihrer Arbeit zu entlasten und zu unterstützen.

 

Cyberkriminelle nutzen indes ChatGPT, um Schafsoftware zu schreiben. Mehr dazu lesen Sie hier.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
wcYNPTpG