KI – der rote Teppich für Hacker und Co.

KI, also Künstliche Intelligenz, hat längst Einzug in unser Leben gehalten. Nicht erst seit ChatGPT Texte aus dem Nichts zaubert, spielt KI in unserem Leben mit. Ob Smart- Home-Geräte, die Gesichtserkennung Ihres Smartphones oder die Assistenzsysteme im Auto – all das ist KI und erleichtert unseren Alltag. Leider hat KI aber nicht nur positive Effekte für uns: Auch Cyberkriminelle kennen die Möglichkeiten Künstlicher Intelligenz und wissen sie für ihre Betrugstechniken zu nutzen. Das zeigt sich allein daran, dass die Anzahl der Attacken und leider auch deren Erfolgs- quote wächst. Kennen Sie die Tücken und lernen Sie die Methoden der Angreifer kennen!

Methode 1: ChatGPT als Phishing-Thema
Beim Phishing versuchen Kriminelle über betrügerische Webseiten, E-Mails, Textnachrichten oder Anrufe an vertrauliche Daten zu gelangen. Diese werden dann für Identitätsdiebstahl, Kreditkartenbetrug oder Ransomware- Angriffe genutzt. Damit Nutzer darauf hereinfallen, wählen die Angreifer meist Aufhänger, die potenziell eine große Nähe zum Opfer haben (beliebt sind zum Beispiel Nach- richten von Bankberatern, der Post aber auch Familien- angehörigen) oder ein aktuelles, brisantes Thema aufgreifen. Neuerdings wird daher auch gern ChatGPT als Köder genutzt, um die Opfer zum Klick zu bewegen.

Methode 2: Chatbots als Phishing-Helfer
Cyberkriminelle lassen sich von KI-Tools die Texte für ihre Phishing-E-Mails und Webseiten schreiben und können dadurch den Erfolg ihrer Kampagnen maßgeblich verbessern. Problematisch dabei ist, dass Rechtschreib- und Grammatikfehler bislang als gutes Indiz galten, um Phishing-Mails zu entlarven. Diese Fehler werden durch KI praktisch eliminiert. Noch perfekter wird ein Phishing- Versuch, wenn die Kriminellen zusätzlich KI-Tools nutzen, um täuschend echte Kopien von Webseiten zu erstellen.

Über einen Link in den Phishing-E-Mails gelangen die Opfer auf gefälschte Webseiten, auf denen Anmeldedaten abge- fragt oder per Drive-by-Download Malware ausgeliefert wird.

Methode 3: Chatbots als Malware-Erzeuger
KI-Chatbots können sogar selbst Malware erstellen – prak- tisch für jene Kriminellen, die selbst keine Programmier- kenntnisse haben. Häufig kommen dabei zwar keine raffinierten Schadprogramme heraus, das könnte sich aber bald ändern, schließlich ist KI lernfähig.

Methode 4: Deepfakes als Köder
KI-Technologien werden auch eingesetzt, um gefälschte Bilder, Videos und Sprachdateien zu erstellen – sogenannte Deepfakes. Angreifer können beispielsweise frei erfundene Geschichten durch Fotofälschungen glaubwürdig erschei- nen lassen oder anhand von Fotos die Gesichter von Perso- nen in Videos einfügen, die gar nicht anwesend waren. Derartige Deepfakes gibt es auch bei Sprachnachrichten: Mit speziellen Tools können Cyberkriminelle Stimmen ziemlich perfekt nachbilden und gefälschte Sprachnach- richten erstellen.

KI – die rechte Hand Cyberkrimineller
Wie Sie wahrscheinlich schon vermuten, ist die Liste an Methoden noch längst nicht ausgeschöpft. Sicherheitsfach- leute malen bereits eine düstere Zukunft an die Wand. Und auch wir finden: Vorsicht ist besser als Nachsicht. Jetzt erst recht lohnt es sich, die eigenen Sicherheitsmaßnah- men zu überprüfen, um sich vor (KI-)Angriffen zu schützen. Und dabei stehen wir Ihnen als IT-Dienstleister Ihres Vertrauens selbstverständlich gern zur Seite.

Sprechen Sie uns an!