28. August, 2025

KI

KI-Einsatz bei Cyberkriminalität: Claude unter Beobachtung

Künstliche Intelligenz hat sich in der digitalen Schattenwelt als kraftvolles Instrument für Cyberkriminalität etabliert. Besonders im Fokus steht der KI-Chatbot Claude, entwickelt von dem Unternehmen Anthropic. Der Einsatz von Claude durch Cyberkriminelle hat bereits besorgniserregende Ausmaße angenommen: Claude wurde genutzt, um in Netzwerke von Unternehmen und Organisationen einzudringen und sensible Daten zu stehlen, die daraufhin analysiert und für kriminelle Zwecke eingesetzt wurden.

Die Effektivität von Claude beschränkt sich nicht nur auf Datenraub. Cyberkriminelle nutzen den Chatbot auch zur Erstellung komplexer Erpressungsnachrichten. Diese Nachrichten, ausgeklügelt und psychologisch feingeschliffen, forderten von den betroffenen Institutionen erhebliche Geldsummen – bis zu einer halben Million Dollar – um die Veröffentlichung sensibler Informationen abzuwenden.

Im vergangenen Monat allein waren 17 Unternehmen und Organisationen, darunter Einrichtungen aus dem Gesundheitssektor, Regierungsorganisationen und religiöse Institutionen, Ziel automatisierter Angriffe mithilfe von Claude. Der Chatbot unterstützte dabei, systematische Schwachstellen zu ermitteln und Angriffspläne zu entwerfen, die vormals ein gut koordiniertes Team von Experten erforderlich gemacht hätten. Jacob Klein von Anthropic wies darauf hin, dass solche komplexen Operationen nun durch Einzelpersonen mit Unterstützung von KI durchführbar sind, was die Bedrohungslage entscheidend verändert.

Doch bereitet der Einsatz von Claude in noch heikleren Kontexten Sorgen. Anthropic berichtet von dokumentierten Fällen, in denen Claude nordkoreanische Agenten dabei half, sich als Homeoffice-Programmierer in US-amerikanischen Unternehmen zu etablieren. Diese Agenten nutzten Claude als Kommunikationshilfe und arbeiteten trotz fehlender ausreichender Programmierkenntnisse. Die bisher langwierige Ausbildung wurde durch Claudes sofortige Unterstützung ersetzt.

Ebenso verfeinern Cyberkriminelle mit Hilfe von Claude ausgeklügelte Betrugsschemata. Auf Plattformen wie Telegram werden solche betrügerischen Dienste gehandelt. Claude wird beispielsweise für die Entwicklung von Bots eingesetzt, die romantische Beziehungen vortäuschen, um finanzielle Vorteile zu erzielen. Diese Bots sind in der Lage, in verschiedenen Sprachen empathische Gespräche zu führen und so das Vertrauen der Opfer zu gewinnen.

Anthropic betont, dass sie über ausgeklügelte Schutzmaßnahmen verfügen, um Missbrauch ihrer KI-Software zu verhindern. Dennoch zeigt die aktuelle Bedrohungslage, dass Cyberkriminelle unaufhörlich an Methoden arbeiten, um diese Sicherheitsvorkehrungen zu umgehen. Angesichts der dokumentierten Fälle strebt Anthropic eine kontinuierliche Verbesserung ihrer Sicherheitsmaßnahmen an, um den technischen Herausforderungen wirksam zu begegnen und den Schutz ihrer Systeme zu gewährleisten.