Das Metaverse von Facebook kann mit Deep Fakes und anderen Desinformationen umgangen werden, wenn diese gemeinnützigen Organisationen keinen Erfolg haben

Das Metaverse von Facebook kann mit Deep Fakes und anderen Desinformationen umgangen werden, wenn diese gemeinnützigen Organisationen keinen Erfolg haben

Mark Zuckerbergs Virtual-Reality-Wissenschaftler mit dem Spitznamen Meta hatte mit einer Reihe von Problemen zu kämpfen, von Technologieproblemen bis hin zu Schwierigkeiten, Mitarbeiter zu halten. Das heißt nicht, dass es nicht schon bald von Milliarden Menschen genutzt wird. Meta ist auf ein neues Problem gestoßen. Ist die virtuelle Umgebung, in der Benutzer ihre eigenen Gesichtsdesigns erstellen können, für alle gleich? Oder werden Unternehmen und Politiker mehr Spielraum haben, um ihr Erscheinungsbild zu verändern?

Rand Waltzman ist leitender Informationswissenschaftler am gemeinnützigen RAND Institute. Und er warnte letzte Woche davor, dass die Lektionen, die Facebook bei der Personalisierung seines Newsfeeds und dem Zulassen von hochgradig zielgerichteten Informationen gelernt hat, dazu verwendet werden könnten, seine Identifikationsrate zu erhöhen. In dieser Definition können Lautsprecher so angepasst werden, dass sie für jedes Mitglied des Publikums vertrauenswürdiger klingen. Mithilfe der Deepfake-Technologie, die realistische, aber gefälschte Videos erstellt, kann ein Sprecher so modifiziert werden, dass er 40 % der Merkmale der Zuschauer enthält, ohne dass diese Zuschauer es wissen.

Meta hat bereits Maßnahmen ergriffen, um das Problem zu beheben. Aber andere Unternehmen zögern nicht. Die New York Times und CBC Canada haben vor zwei Jahren das Projekt Origin ins Leben gerufen, um eine Technologie zu entwickeln, die beweist, dass die Nachricht von ihrer Quelle stammt. Project Origin, Adobe, Intel und Sony sind Teil der Alliance for Content Creation and Originality geworden. Einige frühe Versionen von Project Origin, einschließlich solcher, die die Informationsquelle online verfolgen, sind bereits verfügbar. Nun stellt sich die Frage: Wer wird es nutzen?

„Wir können erweiterte Informationen bereitstellen, um die Quelle der erhaltenen Informationen zu überprüfen“, sagt Bruce MacCormack, Senior Advisor von CBC Radio-Canada für Initiativen zur Interessenvertretung von Desinformation und Mitbegründer von Project Origin. „Facebook muss entscheiden, wie viel es in seinem System verbrauchen und verwenden wird, und herausfinden, wie es es in seine Algorithmen und Systeme einspeisen kann, die wir nicht sehen können.“

Project Origin, gegründet im Jahr 2020, ist ein Programm, mit dem Zuschauer feststellen und beweisen können, ob Informationen angeblich aus einer vertrauenswürdigen Nachrichtenquelle stammen. Das bedeutet, dass es keine Manipulationen gibt. Anstatt sich auf Blockchain oder andere Distributed-Ledger-Technologien zu verlassen, um die Bewegung von Informationen über das Internet zu verfolgen, wie dies in zukünftigen Versionen des sogenannten Web3 möglich sein könnte, markiert die Technologie Informationen mit Daten darüber, woher sie stammen und was sich mit ihnen bewegt wie es kopiert und verbreitet wird. Er sagte, dass eine frühe Version des Entwicklungsprogramms den Mitgliedern zur Verfügung gestellt wurde und nun verwendet werden kann.


klicken hier drüben Um SME CryptoAsset & Blockchain Advisor zu abonnieren


Probleme mit Meta-Fehlinformationen sind mehr als nur gefälschte Nachrichten. Um Überschneidungen zwischen Project Origin-Lösungen und anderen ähnlichen Technologien zu reduzieren, die auf verschiedene Arten der Täuschung abzielen, und um sicherzustellen, dass die Lösungen kompatibel sind, hat die gemeinnützige Organisation im Februar 2021 die Koalition für die Erstellung und Authentizität von Inhalten ins Leben gerufen, um die Authentizität einer Reihe von zu validieren Arten von geistigem Eigentum. Adobe steht auf der Blockchain 50 List und betreibt die Content Originality Initiative. Diese im Oktober 2021 angekündigte Initiative wird zeigen, dass die mit der Software erstellten NFTs tatsächlich vom Künstler erstellt wurden.

„Vor ungefähr anderthalb Jahren haben wir entschieden, dass wir wirklich den gleichen Ansatz verfolgen und in die gleiche Richtung arbeiten“, sagt MacCormack. “Wir wollten sicherstellen, dass wir an einem Ort ankommen. Wir haben nicht zwei konkurrierende Technologien entwickelt.”

Meta erkennt Deepfakes. Mangelndes Vertrauen in Informationen ist ein Problem. MacCormack und Google haben die Partnerschaft für künstliche Intelligenz gemeinsam gegründet. Diese Gruppe, MacCormack und IBM Tips, wurde im September 2016 gegründet. Sie zielt darauf ab, die Qualität der Technologie zu verbessern, die zur Erstellung von Deepfakes verwendet wird. Im Juni 2020 wurden die Ergebnisse der vom sozialen Netzwerk durchgeführten Deep Fake Detection Challenge veröffentlicht. Diese Ergebnisse zeigten, dass Fälschungserkennungsprogramme nur zu 65 % erfolgreich waren.

Die Behebung des Problems ist nicht nur ein ethisches Problem, sondern wird immer mehr Unternehmensgewinne beeinträchtigen. McKinsey Research hat herausgefunden, dass sich die Metaverse-Investitionen für das erste Halbjahr 2022 bereits verdoppelt haben. Sie sagten auch voraus, dass die Branche bis 2030 einen Wert von 5 Billionen US-Dollar haben wird. Dieser Boom könnte zu einem Crash werden.

MacCormack gibt an, dass sich die Tiefe gefälschter Software schneller verbessert als die Ausführungszeit. Ein Grund, warum sie mehr Wert auf die Fähigkeit von Informationen legen, zu beweisen, dass sie von der Quelle stammen. “Wenn Sie die Erkennungstools in die freie Wildbahn bringen würden, würde dies die Fälschungen aufgrund der Art und Weise, wie die KI funktioniert, besser machen. Und sie verbesserten die Dinge sehr schnell, bis zu dem Punkt, an dem der Lebenszyklus des Tools oder der Die Lebensdauer des Tools wäre kürzer als die Zeit, die für die Bereitstellung des Tools benötigt wird, was bedeutet, dass Sie überhaupt nicht darauf zugreifen können. Der Markt.

Laut McCormack wird sich das Problem nur verschlimmern. Letzte Woche hat ein neuer Konkurrent von Sam Altmans Dall-E namens Stable Diffusion, der es Benutzern ermöglicht, fotorealistische Bilder zu erstellen, sobald sie beschrieben sind, seinen Quellcode für jedermann zur Verwendung geöffnet. Laut MacCormack bedeutet dies, dass es nur eine Frage der Zeit ist, bis die Sicherheitsvorkehrungen, die OpenAI implementiert, um die Erstellung bestimmter Arten von Inhalten zu verhindern, umgangen werden.

“Das ist so etwas wie Nichtverbreitung”, sagt McCormack. “Sobald es einen gibt, gibt es ihn. Die Tatsache, dass dieser Code ohne Sicherheiten bereitgestellt wurde, bedeutet also, dass zu erwarten ist, dass die Zahl der böswilligen Anwendungsfälle in den nächsten Monaten dramatisch ansteigen wird.”

Leave a Reply

Your email address will not be published.