Deepfakes im Cybercrime: Wie KI das Vertrauen zur Schwachstelle macht

von Cyber Awareness, Künstliche Intelligenz

Wenn Betrüger wie echte Chefs klingen und aussehen, geraten selbst sichere Prozesse ins Wanken. KI-gestützte Deepfakes verändern die Bedrohungslage und machen echte Awareness-Kultur wichtiger denn je.

Künstliche Intelligenz verändert nicht nur Wirtschaft und Gesellschaft, auch Cyberkriminelle setzen sie immer gezielter ein. Mit Deepfakes und KI-generierten Stimmen täuschen Angreifer CEOs und Mitarbeitende und verleiten sie zu unüberlegten Handlungen. Klassische Abwehrmechanismen reichen hier nicht mehr alleine aus. Entscheidend ist, dass Unternehmen ihre Mitarbeitenden durch gezielte Awareness-Trainings auf diese neue Dimension der Täuschung vorbereiten.

Um zu verstehen, warum KI-gestützte Angriffe so gefährlich sind, lohnt sich ein Blick auf die Grundlagen der Authentisierung in der IT-Sicherheit. 

Es gibt drei verschiedene Authentisierungsfaktoren:

  1. Faktor: Etwas, das du weisst (z. B. ein Passwort),
  2. Faktor: etwas, das du hast (z. B. ein Smartphone mit einem Token) und
  3. Faktor: etwas, das du bist (z. B. biometrische Merkmale wie Stimme oder Gesicht).

Bisher konzentrierten sich Angreifer primär auf die ersten beiden Faktoren. Mit der fortschreitenden Leistungsfähigkeit von Künstlicher Intelligenz (KI) und Deepfakes rücken jedoch zunehmend auch biometrische Merkmale in den Fokus. Damit gerät das ins Visier, was bisher als eindeutig und vertrauenswürdig galt.

Deepfakes knacken keine Systeme. Sie knacken das Vertrauen der Menschen.

Ein Vorfall mit Signalwirkung

IWie real die Gefahr ist, zeigt ein Fall aus dem Jahr 2024: Ein Mitarbeiter des internationalen Ingenieurbüros Arup nahm an einer Videokonferenz mit vermeintlichen Führungskräften teil. Die Gesprächspartner sahen aus und klangen wie sein Chef. In Wahrheit handelte es sich um Deepfake-Imitationen. Überzeugt von der Echtheit, überwies der Mitarbeiter rund 20 Millionen Franken an die Betrüger. Mehr zum Fall von Arup.

Keine technische Sicherheitsmassnahme erkannte diesen Angriff – und hätte es auch nicht gekonnt. Weder Firewalls noch Virenscanner schlagen Alarm, wenn die Täuschung perfekt inszeniert ist. Nur ein gesundes Mass an Skepsis beim Mitarbeitenden – bewusstes Hinterfragen auch scheinbar vertrauter Quellen – hätte den Vorfall verhindern können.

Vertrauen als Einfallstor

Deepfakes sind mehr als ein technisches Phänomen – sie sind ein direkter Angriff auf das Fundament menschlicher Interaktion: Vertrauen. Unternehmen, die ihre Belegschaft nicht gezielt auf solche Angriffe vorbereiten, riskieren, dass Vertrauen zur Schwachstelle wird.

Nur Awareness-Programme, die auch den kritischen Umgang mit Deepfakes trainieren und kulturell verankern, schaffen die nötige Wachsamkeit im digitalen Alltag.

Warum moderne Angriffe neue Awareness-Formate erfordern

Die Mitarbeitenden müssen wissen, wie sich reale Angriffsszenarien anfühlen: Welche Verhaltensmuster lösen Social-Engineering-Angriffe aus, wie sieht Manipulation aus und warum wirken moderne Täuschungsversuche oft so glaubwürdig? Gut geschulte Teams reagieren schneller, sicherer und vorausschauender auf Phishing, Deepfakes und Social Engineering. Laut IBM können Organisationen mit zielgerichteten Awareness-Programmen ihre Sicherheitsvorfälle deutlich reduzieren und Vorfallkosten um rund ein Drittel senken [3].

In einer Welt voller synthetischer Stimmen wird gesunder menschlicher Zweifel zu einer der wichtigsten Abwehrmechanismen einer Organisation.

Nächster Schritt für Ihr Unternehmen

e3 unterstützt seit vielen Jahren Unternehmen dabei, Awareness nachhaltig aufzubauen. Unsere Trainings vermitteln nicht nur, wie klassische Phishing-Muster erkannt werden, sondern auch, wie Mitarbeitende Deepfakes und KI-gestützte Social-Engineering-Angriffe identifizieren und hinterfragen.

Success Story Axept

Ausgangslage

Die Axept Business Software AG legt grossen Wert auf eine sichere IT. Technische Massnahmen allein reichen dafür nicht aus. Auch die Mitarbeitenden sind ein entscheidender Faktor und sollten nachhaltig für Cyberrisiken sensibilisiert werden – über klassische Phishing-Trainings hinaus.

Lösung

Gemeinsam mit e3 entwickelte axept ein Awareness-Programm, das moderne Angriffsmethoden wie Social Engineering und Deepfakes berücksichtigt. Dazu gehörten Phishing-Simulationen sowie praxisnahe Awareness-Schulungen für Mitarbeitende mit unterschiedlichen IT-Kenntnissen.

Ergebnis

  • Ganzheitlicher Ansatz mit Kombination aus Simulation & Training
  • Deutlich erhöhtes Sicherheitsbewusstsein in der Belegschaft
  • Nachhaltige Verankerung von Awareness im Unternehmensalltag

Wünschen Sie mehr Informationen zum Thema?

Registrieren Sie sich

Erfahren Sie mehr zu Trends. Nach der Registration stehen Ihnen auf unseren Trend Sites Factsheets und weitere Fachartikel zum Download zur Verfügung.

Kontaktieren Sie uns. Wir beraten Sie gerne

Für Ihre Fragen rund um das Trend-Thema stehen Ihnen unsere Experten gerne zur Verfügung.

 

E-Mail(erforderlich)