Foto: Shutterstock/Tero Vesalainen
Die Entwicklungen im Bereich der künstlichen Intelligenz (KI) schreiten in den letzten Jahren rasant voran. Diese Entwicklung bringt sowohl positive als auch negative Folgen mit sich. Eines der Probleme, mit denen der Kryptosektor konfrontiert ist, ist eine dieser negativen Folgen der KI-Entwicklung.
Laut einer Untersuchung von Bitget, die auf früheren Daten basiert, nehmen die finanziellen Schäden durch KI-Deepfakes in der Krypto-Welt zunehmend zu. Es wird erwartet, dass die durch diese Deepfakes verursachten Schäden in diesem Jahr 25 Milliarden Dollar erreichen werden.
Wie werden Deepfakes von Krypto-Betrügern genutzt?
Deepfakes sind von KI generierte gefälschte Videos. Diese Videos werden hauptsächlich für betrügerische Krypto-Projekte, Phishing-Aktivitäten und Ponzi-Schemata verwendet. Dabei werden oft bekannte Persönlichkeiten imitiert, um Opfer dazu zu bringen, betrügerischen Links zu folgen. Bitget warnt, dass bis 2026 Deepfakes möglicherweise bei 70 Prozent aller kryptobezogenen Verbrechen beteiligt sein werden.
„Durch die Nachahmung einflussreicher Persönlichkeiten erzeugen diese Betrügereien die Illusion von Glaubwürdigkeit und beträchtlicher Marktkapitalisierung, was dazu führt, dass sie große Investitionen von Opfern erhalten, die keine gründliche Untersuchung durchführen“, so Bitget Research.
Dieser Trend ist seit 2022 im Gange. Damals belief sich der weltweite Schaden durch Deepfakes bereits auf 79,1 Milliarden Dollar. Im Jahr 2024 wird ein globaler Anstieg der Nutzung von Deepfakes um 245 Prozent erwartet, insbesondere in Ländern wie China, Deutschland und den Vereinigten Staaten.
Die Gefahren von KI werden größer
Die KI-Technologie hinter Deepfakes wird immer ausgefeilter, was es böswilligen Akteuren erleichtert, überzeugende gefälschte Videos und Bilder zu erstellen. Obwohl KI sicherlich positive Effekte hat, sind die negativen Folgen ebenfalls erheblich, insbesondere für den Kryptosektor.
Michael Saylor, der bekannte Bitcoin (BTC) Bulle, beklagte sich Anfang dieses Jahres ebenfalls über die zahlreichen gefälschten Videos von ihm, die verwendet werden, um ahnungslose Personen zu betrügen:
„Mein Team entfernt täglich mehr als 80 von KI generierte Videos von YouTube. Aber die Betrüger laden ständig neue hoch. Vertraue nicht, sondern überprüfe.“
Die große Sorge ist nun, dass sich die KI-Technologie weiterentwickelt. Dies könnte zu Szenarien führen, in denen Betrüger sogar Familienmitglieder der Opfer imitieren könnten.
„Ein Video, das jemanden aus dem direkten Umfeld des Opfers imitiert, kann für Betrüger entscheidend sein, während ein gefälschtes Video eines Influencers das Vertrauen der Investoren in ein betrügerisches Projekt als zusätzliches Mittel stärken kann“, so Bitget.