ETH-Spin-off engagiert sich im Kampf gegen Deepfakes
Die Schweizer Firma Latticeflow AI will sich mit einem neu lancierten Produkt dem Kampf gegen Deepfakes stellen: Das entwickelte KI-Modell soll gefälschte Tonspuren zuverlässig erkennen. Dies sei angesichts der anstehenden Wahlen weltweit aktuell besonders relevant.
Immer häufiger verwenden Cyberkriminelle Deepfakes, um an sensible Informationen zu gelangen und Unternehmen zu schwächen. Doch nicht nur die Privatwirtschaft riskiert, zur Zielscheibe von Cyberkriminellen zu werden, sondern auch die Politik - und damit die demokratischen Prozesse. Gerade jetzt, wo in einigen Demokratien weltweit wichtige Wahlen bevorstehen, ist das Thema hochrelevant. Das Potenzial für Wahlbetrug durch den Einsatz von künstlicher Intelligenz (KI) und Deepfake-Technologien sei hoch, warnt auch der israelische Cybersecurity-Anbieter Check Point Anfang des Jahres 2024.
Dagegen will die Firma Latticeflow AI ankämpfen. Das Spin-off der ETH Zürich unterstützt Kunden bei der Implementierung von KI-Modellen und setzt sich ein für sichere KI-Anwendungen. Nun lanciert das Unternehmen mit "Latticeflow AI Audio" ein Produkt, das Fehler in Audio-KI-Anwendungen identifizieren kann, wie die Firma mitteilt. Damit liessen sich etwa gefälschte Sprachaufnahmen zuverlässig erkennen.
Der Zeitpunkt der Lancierung sei nicht zufällig gewählt, erklärt CEO und Mitgründer Petar Tsankov auf Anfrage: "Wir bringen Latticeflow AI Audio im Hinblick auf die bevorstehenden Wahlen in den USA bewusst jetzt auf den Markt." Audio-Deepfakes seien derzeit die verbreitetste Art gefälschter Inhalte und böten grosses Potenzial für Wahlmanipulation. So hätten etwa in der Slowakei im vergangenen Jahr Betrüger gefälschte Tonspuren eines Journalisteninterviews mit dem Vorsitzenden der liberalen Partei veröffentlicht. Dies habe dazu geführt, dass die Partei die Wahl knapp verlor. "In Indien und den USA sehen wir ebenfalls eine Zunahme von Deepfakes in den Wahlen. Und auch Russland versucht zunehmend, damit die Europawahlen zu beeinflussen", sagt Tsankov.
Petar Tsankov, CEO und Mitgründer von Latticeflow AI. (Source: zVg)
Eine übliche Methode zur Bekämpfung dieses Misstands sind sogenannte Deepfake-Detektoren, ebenfalls auf KI-Basis. So wird künstliche Intelligenz auf beiden Seiten eingesetzt - einerseits zum Erstellen und andererseits zum Erkennen von Deepfakes. Das führe zu einem Wettrennen, das für Detektoren kaum zu gewinnen sei. Denn während KI es Betrügern ermöglicht, innert Sekunden und ohne grosse Technikkenntisse gefälschtes Material zu generieren, stossen die Detektoren besonders bei Audio-Inhalten laut Tsankov schnell an ihre Grenzen: Im Gegensatz zu gefälschtem Bildmaterial seien Fehler in Audiodateien für eine künstliche Intelligenz viel schwieriger erkennbar. "Hintergrundgeräusche verwirren Detektoren in der Regel, weil KI-generiertes Material im Gegensatz zu echten Aufnahmen üblicherweise sehr sauber ist. Sobald eine Tonspur etwa Hintergrundmusik hat, korrelieren Detektoren das mit Echtheit, obwohl Betrüger ganz einfach eine Musikdatei hinterlegen können", erklärt Tsankov.
Das erhöhe den Bedarf an zuverlässigen Mechanismen zur Erkennung solcher Inhalte. Latticeflow AI Audio richtet sich denn auch an Kunden, die solche Detektoren anbieten. Das Unternehmen habe etwa einen öffentlich zugänglichen Stimmen-KI-Detektoren analysiert, von dem der Hersteller behauptete, er sei zu 99 Prozent zuverlässig. Dennoch hätten die Experten von Latticelow AI bei den eingespeisten Audiodateien eine Fehlerquote von 20 Prozent aufgedeckt. Latticeflow AI Audio habe diese Schwachstelle in weniger als einer Minute beheben können. Darauf basierend konnte die Firma einen benutzerdefinierten Schutzmechanismus erstellen, um zukünftige Angriffe, die diese Schwachstelle auszunutzen versuchen, effektiv zu identifizieren und zu blockieren.
Deepfakes könnten auch Schweizer Demokratie destabilisieren
Dass Deepfakes eine reelle Bedrohung für die Demokratie sind, legen auch Ergebnisse einer jüngst veröffentlichten Studie der Stiftung für Technologiefolgen-Abschätzung nahe. Das Forschungsteam untersuchte in dessen Rahmen die Chancen und Risiken von Deepfakes für die Schweiz und kommt zum Schluss, dass auch hierzulande erhebliches Risikopotenzial besteht. Zwar schneide die Schweiz in sämtlichen Faktoren, die für die Gefährdung der Demokratie eine Rolle spielen - geringe Beteiligungsraten an Wahlen und Referenden, die Polarisierung der Gesellschaft sowie geringes Vertrauen in das politische System und in Nachrichtenmedien - gut ab. Trotzdem trauen die Studienautorinnen und -autoren Deepfakes zu, diese Stabilität zu beeinträchtigen. Auch eine Mehrheit der befragten Parlamentarier und Parlamentarierinnen sehen Deepfakes als ernstzunehmende Gefahr.
Die Schweiz sei allerdings weltweit führend in der Forschung zu sicheren und zuverlässigen KI-Modellen, sagt Petar Tsankov, der am Secure, Reliable, and Intelligent Systems Lab (SRI) an der ETH Zürich doktoriert hat. "Darauf sollte die Schweiz stolz sein, denn oftmals denkt man bei KI nur an die USA und China." 2022 gewann die Firma denn auch den Swiss AI Award. Mittlerweile seien sie jedoch in erster Linie global tätig, unter anderem für die US-amerikanische Armee oder das deutsche Bundesamt für Sicherheit in der Informationstechnik. Für das neu lancierte Produkt Latticeflow AI Audio hätten sie in der Schweiz noch keine Kunden, bestätigt Tsankov.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.