
Deepfake: Britische Firma Arup fällt einem 25-Millionen-Dollar-Betrug zum Opfer. Wie können Sie sich schützen?
- Dieser raffinierte Betrug führte dazu, dass einer seiner Mitarbeiter in Hongkong 25 Millionen Dollar an Betrüger überwies.
- Arup informierte die Hongkonger Polizei im Januar über den Vorfall und bestätigte, dass falsche Stimmen und Bilder verwendet wurden.
- Die Deepfake-Technologie birgt erhebliche Risiken, die Wachsamkeit und proaktive Maßnahmen zur Eindämmung erfordern.
Das britische multinationale Design- und Ingenieurunternehmen Arup, bekannt für ikonische Gebäude wie das Sydney Opera House, bestätigte, dass es Ziel eines Deepfake-Betrugs war.
Dieser raffinierte Betrug führte dazu, dass einer seiner Mitarbeiter in Hongkong 25 Millionen Dollar an Betrüger überwies.
Worin bestand der Betrug?
Copy link to sectionArup informierte die Hongkonger Polizei im Januar über den Vorfall und bestätigte, dass falsche Stimmen und Bilder verwendet wurden.
Bei dem Betrug ging es um einen Finanzmitarbeiter, der dazu verleitet wurde, an einem Videoanruf mit Personen teilzunehmen, bei denen es sich seiner Meinung nach um den Finanzvorstand und andere Mitarbeiter handelte. Bei allen handelte es sich um Deepfake-Nachbildungen.
Trotz des anfänglichen Verdachts, es handele sich um eine Phishing-E-Mail, veranlassten das realistische Aussehen und die Stimmen seiner vermeintlichen Kollegen den Mitarbeiter dazu, die Transaktionen im Gesamtwert von 200 Millionen Hongkong-Dollar (25,6 Millionen US-Dollar) in 15 Überweisungen durchzuführen.
Steigende Bedrohung durch Deep-Fake-Technologie
Copy link to sectionDer Vorfall unterstreicht die zunehmende Komplexität der Deepfake-Technologie.
Rob Greig, globaler Chief Information Officer von Arup, sagte:
Copy link to section„Wie viele andere Unternehmen auf der ganzen Welt sind unsere Betriebe regelmäßig Angriffen ausgesetzt, darunter Rechnungsbetrug, Phishing-Betrug, WhatsApp-Voice-Spoofing und Deepfakes.“
Die Zahl und Raffinesse solcher Angriffe nehmen stark zu und stellen Unternehmen weltweit vor erhebliche Herausforderungen.
Globale Besorgnis und interne Reaktion
Copy link to sectionBehörden weltweit sind zunehmend besorgt über den böswilligen Einsatz der Deepfake-Technologie.
Michael Kwok, Vorsitzender von Arup für Ostasien, betonte in einem internen Memo, dass diese Angriffe immer häufiger und ausgefeilter würden. Er forderte die Mitarbeiter auf, sich ständig zu informieren und wachsam zu sein, um die verschiedenen Betrugsmethoden zu erkennen.
Betriebsstabilität und laufende Untersuchungen
Copy link to sectionTrotz des erheblichen finanziellen Verlusts versicherte Arup, dass seine finanzielle Stabilität und sein Geschäftsbetrieb nicht beeinträchtigt seien und keines seiner internen Systeme kompromittiert worden sei. Das Unternehmen arbeitet weiterhin mit den Behörden zusammen und die Ermittlungen dauern an.
Dieser Aufsehen erregende Vorfall unterstreicht, dass Unternehmen dringend ihre Cybersicherheitsmaßnahmen verstärken müssen, um der wachsenden Bedrohung durch Deepfake-Technologien und andere ausgeklügelte Betrugsmaschen entgegenzuwirken.
Was ist ein Deepfake?
Copy link to sectionEin Deepfake ist ein mithilfe von Deep-Learning-Techniken generierter Inhalt, der echt erscheint, aber erfunden ist. Künstliche Intelligenz ( KI ), die zur Erstellung von Deepfakes verwendet wird, nutzt typischerweise generative Modelle wie Generative Adversarial Networks (GANs) oder Auto-Encoder.
Deepfakes können Videos, Audioaufnahmen oder Bilder sein, die Einzelpersonen oder Gruppen zeigen, die Dinge tun oder sagen, die sie nie getan haben.
Um überzeugende Inhalte zu produzieren, muss KI anhand großer Datensätze trainiert werden, um natürliche Muster zu erkennen und zu replizieren.
Die Deepfake-Technologie ist zwar innovativ, eröffnet jedoch gefährliche Möglichkeiten für die illegale Nutzung, darunter Identitätsdiebstahl, Beweisfälschung, Desinformation, Verleumdung und die Umgehung biometrischer Sicherheitssysteme.
Betrüger nutzen häufig die Autorität oder die persönliche Verbindung der abgebildeten Person zu ihren Opfern aus.
Arten von Deepfakes
Copy link to sectionDeepfakes können Video-, Audio- oder Bildinhalte produzieren, die als aufgezeichnete Medien oder in Echtzeit-Streams verwendet werden. Diese Formate können in verschiedenen Szenarien vorkommen, von Social-Media-Posts bis hin zu Telefonanrufen und Videokonferenzen.
Gesichtstausch: Diese Anwendung ersetzt die Gesichtszüge einer Zielperson durch gefälschte Merkmale, häufig die einer anderen Person.
Durch Techniken wie die Erkennung und Manipulation von Gesichtsmerkmalen wird die Überblendung nahtlos und ist schwer zu erkennen, wenn man unvorbereitet ist.
Stimmklonen: Mit dieser Technik wird die Stimme einer Person nachgeahmt. Um ein Stimmklonmodell zu trainieren, werden hochwertige Audiodaten aus Aufnahmen der Zielperson benötigt, die in verschiedenen Kontexten spricht.
Video-Deepfakes in Echtzeit
Copy link to sectionEchtzeit-Video-Deepfakes generieren während Live-Streams und Videoanrufen sofort manipulierte Videoinhalte.
Um eine überzeugende Fake-Umgebung zu schaffen, werden häufig Stimmklonen und Gesichtstausch eingesetzt. Software zur Deepfake-Generierung kann auf verschiedene Weise in Streaming-Plattformen und Videokonferenz-Tools integriert werden:
Eine separate Anwendung erfasst, verarbeitet und sendet den manipulierten Video-Feed an die Konferenzsoftware.
Direkte Integration in Videokonferenzsoftware als optionale Funktion oder Plugin.
Verwenden einer virtuellen Kamera, um den Video-Feed der physischen Kamera abzufangen und den manipulierten Feed auszugeben.
Wie schützen Sie sich vor Deepfakes?
Copy link to sectionAngesichts der Fortschritte bei der Deepfake-Technologie ist es wichtig, sich selbst und Ihr Unternehmen vor Betrug zu schützen. Hier sind einige Möglichkeiten zum Schutz vor Deepfakes:
Achten Sie auf Warnzeichen: Achten Sie auf unrealistische Gesichtsausdrücke oder Bewegungen, Inkonsistenzen bei Licht und Schatten, unnatürliche Kopf- oder Körperbewegungen sowie nicht übereinstimmende Audio- und Videoqualität.
Seien Sie bei Verdacht proaktiv: Führen Sie ein lockeres Gespräch, um einen Betrüger zu überrumpeln. Bitten Sie die Person, ihren Bildschirm freizugeben oder ihre Identität zu bestätigen, indem Sie exklusive Informationen bereitstellen oder eine Bestätigungsnachricht über einen anderen Kanal senden.
Richten Sie eine Passphrase ein: Legen Sie für vertrauliche Themen mit Kollegen und Familienmitgliedern ein Passwort oder eine Passphrase fest. Diese Methode ist bei Sprach-, Video- und Textkommunikation effektiv.
Die Deepfake-Technologie birgt erhebliche Risiken, die Wachsamkeit und proaktive Maßnahmen zur Eindämmung erfordern.
Durch das Verständnis der Deepfake-Arten und die Implementierung von Strategien zu deren Identifizierung und Bekämpfung können sich Einzelpersonen und Organisationen besser vor potenziellem Betrug schützen.
Da sich die generative KI ständig weiterentwickelt, ist es für den Schutz vor der wachsenden Bedrohung durch Deepfakes entscheidend, informiert und vorbereitet zu bleiben.
Dieser Artikel wurde mit Hilfe von KI-Tools aus dem Englischen übersetzt und anschließend von einem lokalen Übersetzer Korrektur gelesen und bearbeitet.