KI, also Künstliche Intelligenz, hat längst Einzug in unser Leben gehalten. Nicht erst seit ChatGPT Texte aus dem Nichts zaubert, spielt KI in unserem Leben mit. Ob Smart- Home-Geräte, die Gesichtserkennung Ihres Smartphones oder die Assistenzsysteme im Auto – all das ist KI und erleichtert unseren Alltag. Leider hat KI aber nicht nur positive Effekte für uns: Auch Cyberkriminelle kennen die Möglichkeiten Künstlicher Intelligenz und wissen sie für ihre Betrugstechniken zu nutzen. Das zeigt sich allein daran, dass die Anzahl der Attacken und leider auch deren Erfolgs- quote wächst. Kennen Sie die Tücken und lernen Sie die Methoden der Angreifer kennen!
Methode 1: ChatGPT als Phishing-Thema
Beim Phishing versuchen Kriminelle über betrügerische Webseiten, E-Mails, Textnachrichten oder Anrufe an vertrauliche Daten zu gelangen. Diese werden dann für Identitätsdiebstahl, Kreditkartenbetrug oder Ransomware- Angriffe genutzt. Damit Nutzer darauf hereinfallen, wählen die Angreifer meist Aufhänger, die potenziell eine große Nähe zum Opfer haben (beliebt sind zum Beispiel Nach- richten von Bankberatern, der Post aber auch Familien- angehörigen) oder ein aktuelles, brisantes Thema aufgreifen. Neuerdings wird daher auch gern ChatGPT als Köder genutzt, um die Opfer zum Klick zu bewegen.
Methode 2: Chatbots als Phishing-Helfer
Cyberkriminelle lassen sich von KI-Tools die Texte für ihre Phishing-E-Mails und Webseiten schreiben und können dadurch den Erfolg ihrer Kampagnen maßgeblich verbessern. Problematisch dabei ist, dass Rechtschreib- und Grammatikfehler bislang als gutes Indiz galten, um Phishing-Mails zu entlarven. Diese Fehler werden durch KI praktisch eliminiert. Noch perfekter wird ein Phishing- Versuch, wenn die Kriminellen zusätzlich KI-Tools nutzen, um täuschend echte Kopien von Webseiten zu erstellen.
Über einen Link in den Phishing-E-Mails gelangen die Opfer auf gefälschte Webseiten, auf denen Anmeldedaten abge- fragt oder per Drive-by-Download Malware ausgeliefert wird.
Methode 3: Chatbots als Malware-Erzeuger
KI-Chatbots können sogar selbst Malware erstellen – prak- tisch für jene Kriminellen, die selbst keine Programmier- kenntnisse haben. Häufig kommen dabei zwar keine raffinierten Schadprogramme heraus, das könnte sich aber bald ändern, schließlich ist KI lernfähig.
Methode 4: Deepfakes als Köder
KI-Technologien werden auch eingesetzt, um gefälschte Bilder, Videos und Sprachdateien zu erstellen – sogenannte Deepfakes. Angreifer können beispielsweise frei erfundene Geschichten durch Fotofälschungen glaubwürdig erschei- nen lassen oder anhand von Fotos die Gesichter von Perso- nen in Videos einfügen, die gar nicht anwesend waren. Derartige Deepfakes gibt es auch bei Sprachnachrichten: Mit speziellen Tools können Cyberkriminelle Stimmen ziemlich perfekt nachbilden und gefälschte Sprachnach- richten erstellen.
KI – die rechte Hand Cyberkrimineller
Wie Sie wahrscheinlich schon vermuten, ist die Liste an Methoden noch längst nicht ausgeschöpft. Sicherheitsfach- leute malen bereits eine düstere Zukunft an die Wand. Und auch wir finden: Vorsicht ist besser als Nachsicht. Jetzt erst recht lohnt es sich, die eigenen Sicherheitsmaßnah- men zu überprüfen, um sich vor (KI-)Angriffen zu schützen. Und dabei stehen wir Ihnen als IT-Dienstleister Ihres Vertrauens selbstverständlich gern zur Seite.
Sprechen Sie uns an!