Künstliche Intelligenz Nachrichten

Revolutionäre KI-Technologie überlistet Banken – So können Betrüger jetzt Ihr Konto leerräumen!

Eine neue Untersuchung zeigt, wie KI-basierte Stimmenimitationen dazu genutzt werden können, um Bankensicherheitsmaßnahmen zu umgehen. Der Journalist Joseph Cox nutzte kürzlich eine künstliche Stimme, um sich in das Authentifizierungssystem seiner Bank einzuloggen und Zugang zu seinen Kontoinformationen zu erhalten.

Die Stimmverifizierung wird als Sicherheitsmerkmal von vielen Banken in den USA und Europa genutzt, um ihre Kunden am Telefon zu authentifizieren. Einige Banken gehen sogar so weit, die Stimmverifizierung mit einem Fingerabdruck zu vergleichen, um eine höhere Sicherheit zu gewährleisten.

Das Experiment des Journalisten erschüttert jedoch die Vorstellung, dass die stimm-basierte biometrische Sicherheit einen narrensicheren Schutz bietet. Das zeigt, dass jeder synthetische Stimmen für wenig Geld oder manchmal sogar kostenlos erzeugen kann. Die KI-Stimmenimitationstechnologie hat somit das Potenzial, von Kriminellen genutzt zu werden, um Banken und ihre Kunden zu täuschen.

Die britische Lloyds Bank, mit der der Journalist den Test durchgeführt hat, wirbt mit einer einzigartigen Sicherheit ihres Voice-ID-Programmes. Sie analysiert über 100 verschiedene Merkmale einer Stimme, die wie ein Fingerabdruck einzigartig sind. Trotzdem konnte Cox die Bank mit seiner synthetisierten Stimme überlisten.

Banken sollten daher auf Multi-Faktor-Authentifizierungsmethoden umsteigen, um ihre Sicherheitsmaßnahmen zu verbessern. Die KI-Stimmenimitationstechnologie kann aufgrund der zahlreichen Datenlecks und der leicht zugänglichen Stimmenerstellungsdienste leicht missbraucht werden. Es ist wichtig, dass Banken und andere Institutionen sich der Risiken bewusst sind, die durch den Einsatz von KI entstehen können.

Es gab bereits mehrere Berichte über mittels KI begangene Betrugsfälle, bei denen Kriminelle mithilfe von synthetischen Stimmen große Summen erbeutet haben. Institutionen wie Europol warnen vor der Verwendung von KI durch Kriminelle.

Deepfakes sind Videos, Bilder oder Audio-Dokumente, die mit Hilfe von künstlicher Intelligenz erstellt werden und echt wirken sollen, es aber nicht sind. Laut Europol können Deepfakes für Erpressungsversuche, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahmen auf Firmen genutzt werden. Zudem können Desinformationskampagnen und eine Beeinflussung der öffentlichen Meinung bis hin zur Anstachelung zu politischen und gesellschaftlichen Unruhen betrieben werden.

Die Deepfake-Technologie kann auch zur Behinderung der Arbeit von Polizei und Justiz eingesetzt werden, indem vermeintliche Beweismittel aus manipulierten Videos oder Bildern erstellt werden. Mit der zunehmenden Entwicklung und Nutzung der Deepfake-Technologie müssten Polizeibehörden Präventions- und automatisierte Programme zum Erkennen von Fälschungen entgegenstellen, so Europol. Auch die Gesetzgebung müsse sich an die technischen Entwicklungen anpassen.

Unternehmen sollten daher sicherstellen, dass sie sichere Methoden der Identitätsüberprüfung verwenden, um ihre Kunden und ihr Unternehmen zu schützen.

Wie denkt ihr über die Nutzung von Deepfake-Technologie durch die organisierte Kriminalität? Was sind eure Gedanken dazu? Seht ihr die Warnung als notwendig an oder denkt ihr, dass sie übertrieben ist? Welche möglichen Auswirkungen könnte der Missbrauch von Deepfake-Technologie haben? Diskutiert gerne im Forum!

FOLGE UNS AUF GOOGLE NEWS
Jetzt gratis Tools ausprobieren
Wachstumshacker Blog starten
Chat GPT entdecken
Shop
KI-Design
KI – Kunst

Revolutionäre KI-Technologie überlistet Banken – So können Betrüger jetzt Ihr Konto leerräumen!

Möchtest du mehr über vergangene Ereignisse und Neuigkeiten erfahren?

Entdecke unseren alten News – Werde Teil der Wachstumshacker Story