Adversa AI erfindet ethisches Hacken von Gesichtserkennungssystemen
Adversa AI hat eine neue Methode zum Hacken von Gesichtserkennungsanwendungen eingeführt.
Adversa-KI, das führende Start-up von Trusted AI Research, hat eine neue Angriffsmethode auf KI-Gesichtserkennungsanwendungen demonstriert. Durch unmerkliche Veränderungen in menschlichen Gesichtern führt es dazu, dass ein KI-gesteuerter Gesichtserkennungsalgorithmus Personen falsch erkennt. Im Vergleich zu anderen ähnlichen Ansätzen ist diese Methode auf alle KI-Modelle übertragbar und viel genauer, unauffälliger und ressourceneffizienter.
Das Adversa AI Red Team hat einen Proof-of-Concept-Angriff auf PimEyes, die beliebteste und fortschrittlichste Gesichtssuchmaschine für öffentliche Bilder, demonstriert. Es ähnelt auch Clearview, einer kommerziellen Gesichtserkennungsdatenbank, die an Strafverfolgungsbehörden und Regierungen verkauft wird. PimEyes wurde ausgetrickst und verwechselte den CEO von Adversa auf dem Foto mit Elon Musk.
Einzigartig ist, dass der Angriff ein Blackbox-Angriff ist, der ohne detaillierte Kenntnisse der von der Suchmaschine verwendeten Algorithmen entwickelt wurde, und der Exploit ist auf verschiedene Gesichtserkennungs-Engines übertragbar. Da der Angriff es Übeltätern ermöglicht, sich auf vielfältige Weise zu tarnen, haben wir ihn benannt Gegnerischer Oktopus, wobei Eigenschaften dieses Tieres wie Heimlichkeit, Präzision und Anpassungsfähigkeit hervorgehoben werden.
Das Vorhandensein solcher Schwachstellen in KI-Anwendungen und Gesichtserkennungsmodulen kann insbesondere zu schwerwiegenden Folgen führen und sowohl in Vergiftungs- als auch in Umgehungsszenarien verwendet werden, wie z. B. in den folgenden:
- Hacktivisten können Chaos in den KI-gesteuerten Internetplattformen anrichten, die Gesichtseigenschaften als Input für Entscheidungen oder Weiterbildungen verwenden. Angreifer können die Algorithmen großer Internetkonzerne vergiften oder umgehen, indem sie deren Profilbilder manipulieren.
- Cyberkriminelle können persönliche Identitäten stehlen und KI-gesteuerte biometrische Authentifizierungs- oder Identitätsprüfungssysteme in Banken, Handelsplattformen oder anderen Diensten umgehen, die authentifizierte Fernunterstützung anbieten. Dieser Angriff kann in jedem Szenario, in dem traditionelle Deepfakes angewendet werden können, noch heimlicher sein.
- Dissidenten können es heimlich verwenden, um ihre Internetaktivitäten in sozialen Medien vor der Strafverfolgung zu verbergen. Es ähnelt einer Maske oder einem gefälschten Ausweis für die virtuelle Welt, in der wir derzeit leben.
WEITERLESEN:
- Biometrische Authentifizierung: das Gute, das Schlechte und das Hässliche
- Sie hatten einen Datenleck – wie rollt man erfolgreich einen Notfall-Patch aus?
- Wie Sie Ihr Büro in einer Post-Covid-19-Welt erfolgreich wiedereröffnen
- Häufige Migrationsfallen und wie man sie vermeidet
Kürzlich hat Adversa AI den weltweit ersten Analysebericht über ein Jahrzehnt wachsender Aktivitäten im Bereich sichere und vertrauenswürdige KI veröffentlicht. Aufgrund des Interesses an praktischen Lösungen zur Gewährleistung der Sicherheit von KI-Systemen vor fortgeschrittenen gegnerischen Angriffen haben wir unsere Technologie für entwickelt Testen von Gesichtserkennungssystemen für solche Angriffe. Wir suchen Early Adopter und zukunftsorientierte Technologieunternehmen, die mit uns zusammenarbeiten, um gegnerische Testfunktionen in Ihre SDLC- und MLLC-Funktionen zu implementieren, das Vertrauen in Ihre KI-Anwendungen zu stärken und Kunden erstklassige Lösungen anzubieten.