https://bodybydarwin.com
Slider Image

Adobe bringt künstliche Intelligenz bei, um Photoshopping-Bilder zu erkennen

2020

Seit dem Einsetzen von Consumer-Kameras vor mehr als einem Jahrhundert manipulieren Menschen Fotos. Infolgedessen haben Zyniker versucht, diese Manipulationen aufzudecken und Betrug für die gleiche Zeit aufzudecken. Mit den Fortschritten bei den Bearbeitungstools sind die Methoden zum Ausspionieren von hinterhältigen Bearbeitungen zurückgeblieben - zumindest außerhalb von Bereichen wie Strafverfolgung und Bildforensik.

Das Arsenal von Adobe zum Auffinden von Fälschungen umfasst mehrere Tools, die künstliche Intelligenz nutzen. Vor kurzem hat das Unternehmen in Zusammenarbeit mit UC Berkeley einige Untersuchungen angekündigt, die darauf abzielen, Änderungen an einem Gesicht mithilfe der in Photoshop integrierten Funktion Face Aware Liquify zu erkennen. Es ist noch ein langer Weg, bis Sie ein Stück Software auf ein Foto richten und eine narrensichere Antwort auf dessen Echtheit erhalten können. Projekte wie dieses können jedoch von entscheidender Bedeutung sein, da es immer mehr überzeugende, aber betrügerische Videos gibt, die als bekannt sind Deepfakes.

Dies ist nicht der erste Vorstoß von Adobe in die AI-basierte Bildauthentifizierung. Tatsächlich hat das Unternehmen bereits Daten zu Techniken veröffentlicht, die sich auf allgemeinere Bildbearbeitungstechniken konzentrieren, z. B. das Zusammenfügen von Bildern, das Entfernen von Objekten aus einem Foto oder das Kopieren und Einfügen eines Bildbereichs an einer anderen Stelle. All dies sind bekannte Fälschungsstrategien.

Diese Techniken stammen jedoch in der Regel von einem menschlichen Redakteur, der das Bild und das fertige Produkt sehen kann, aber möglicherweise nicht die Spuren von Hinweisen sieht, die er über seine Arbeit hinterlässt. Das Kopieren und Einfügen eines Elements von einer Stelle an eine andere kann beispielsweise das vom Sensor einer Digitalkamera erzeugte Muster des digitalen Rauschens stören.

Die neue Forschung beschreibt jedoch eine Technik, die dazu gedacht ist, Änderungen rückgängig zu machen, die sich in erster Linie auf KI stützten.

Das Liquify-Tool von Photoshop gibt es schon seit Generationen. Wenn Sie ein Bild verflüssigen, können Sie die Pixel verschieben und verschieben. Es ist ein gängiges Werkzeug für Retuschierer, da es einfach (besser oder schlechter) ist, einen bestimmten Teil des Körpers eines Modells dicker oder dünner aussehen zu lassen. Vor einigen Versionen kündigte Adobe jedoch Face Aware Liquify an, bei dem mithilfe von KI einzelne Elemente im Gesicht erkannt werden und Retuscheure Variablen wie Größe und Form von Augen, Nase und Mund auf einfache Weise bearbeiten können.

Mit Face Aware Liquify können Sie Schieberegler ganz durchdrehen und einige wahrhaft albtraumhafte Dinge erstellen. Verwenden Sie sie jedoch auf subtile Weise und ändern Sie das Gesicht oder den Ausdruck einer Person auf eine Weise, die Sie manchmal nicht erkennen können habe das Original nicht gesehen.

Bei seinen Nachforschungen zeigte Adobe Bilderpaare - ein verändertes Foto und das Original - sowohl für das neuronale Netzwerk als auch für menschliche Subjekte. Menschen konnten das veränderte Foto in etwa 53 Prozent der Fälle identifizieren, aber das neuronale Netzwerk erreichte Berichten zufolge eine Genauigkeit von etwa 99 Prozent. Darüber hinaus konnte die KI manchmal auch die Änderungen rückgängig machen, um eine Annäherung an das Original zu erhalten, wobei eine Kombination von Hinweisen wie Verzerrungen verwendet wurde, die durch die ursprünglichen Verzerrungseffekte verursacht wurden.

Obwohl solche Tools nützlich sind, ist es noch ein langer Weg, bis der Erkennungsprozess die Erstellung abschließt. Hany Farid, ein Informatikprofessor von der UC Berkeley, teilte der Washington Post kürzlich mit, dass Forscher, die versuchen, gefälschte Videos zu entdecken, eine Überzahl von 100 zu 1 haben, wenn sie daran arbeiten, die Videos überzeugender und schwerer herauszufinden.

Und selbst wenn die Technologie aufholt, müssen noch weitere Variablen herausgefunden werden, nicht zuletzt, um die Menschen dazu zu bringen, dem Urteil der KI zu vertrauen, insbesondere wenn der zu bewertende Inhalt politisch oder polarisierend sein könnte. Es gibt auch das uralte Problem bei der Überprüfung von Bildern: Die Bestätigung, dass ein Foto oder Video nicht digital verändert wurde, kann seiner Botschaft zu viel Glaubwürdigkeit verleihen. Der Fotograf oder Videofilmer wählt nach wie vor aktiv aus, welche Informationen präsentiert und wie sie präsentiert werden sollen. Daher ist es nach wie vor sehr gut möglich, den Betrachter ohne digitale Manipulation irrezuführen.

Es gibt momentan keine Möglichkeit, die Tools auszuprobieren. Sie können sie also noch nicht selbst ausprobieren, aber Adobe und andere Unternehmen sowie das Militär arbeiten weiter daran Erwarten Sie, dass diese Art von Technologie mehr darüber erfährt. Erwarten Sie auch mehr gefälschte Bilder und Videos.

Was muss passieren, damit unser Hyperloop an der Ostküste entsteht?

Was muss passieren, damit unser Hyperloop an der Ostküste entsteht?

Warum Fische nicht anders können, als unseren Plastikmüll zu essen

Warum Fische nicht anders können, als unseren Plastikmüll zu essen

Bei Windparks liegt die Voreingenommenheit im Auge des Betrachters

Bei Windparks liegt die Voreingenommenheit im Auge des Betrachters