- Retour au menu
- Retour au menuTarifs
- Retour au menuRecherche
- Retour au menuConsensus
- Retour au menu
- Retour au menu
- Retour au menu
- Retour au menuWebinaires et Événements
Nous avons testé l'outil blockchain de Fox pour la détection des deepfakes. Voici le résultat.
Le nouvel outil blockchain de Fox n'aidera peut-être pas les consommateurs à détecter les deep fakes, mais il pourrait être une aubaine pour les éditeurs qui peinent à s'adapter à l'ère de l'IA. Nous avons testé cette nouvelle Technologies.
Fox Corp. a fait des vagues dans les cercles médiatiques mardi lorsqu'elle a annoncé le lancement de « Verify », un nouvel outil basé sur la blockchain pour vérifier l'authenticité des médias numériques à l'ère de l'IA.
Le projet s'attaque à deux problèmes de plus en plus épineux : l'IA facilite l'apparition de contenus « deepfake » et l'induction en erreur des lecteurs, et les éditeurs découvrent fréquemment que leur contenu a été utilisé pour former des modèles d'IA sans autorisation.
On pourrait être cynique en pensant qu'il s'agit simplement d'une vaste opération de relations publiques. Mélanger « IA » et « Blockchain » dans un mélange de mots à la mode pour renforcer la « confiance dans l'information » semble être un excellent argument de vente, surtout si vous êtes un conglomérat médiatique vieillissant.problèmes de crédibilitéNous avons tous vuSuccession, n'est-ce T ?
Mais laissons de côté l'ironie un instant et prenons Fox et son nouvel outil au sérieux. Concernant le deepfake, Fox affirme que les utilisateurs peuvent charger des URL et des images dans le système Verify pour vérifier leur authenticité, ce qui signifie qu'un éditeur les a ajoutées à la base de données Verify. Côté licences, les entreprises d'IA peuvent utiliser la base de données Verify pour accéder au contenu (et le payer) de manière conforme.
Blockchain Creative Labs, la branche Technologies interne de Fox, s'est associée à Polygon, la blockchain à faible coût et à haut débit qui fonctionne sur le vaste réseau Ethereum , pour alimenter les coulisses. Ajouter du nouveau contenu à Verify revient à ajouter une entrée à une base de données sur la blockchain Polygon , où sont stockées ses métadonnées et autres informations.
Contrairement à de nombreuses autres expériences de Crypto , le lien avec la blockchain pourrait avoir un sens cette fois-ci : Polygon donne au contenu de Verify une piste d'audit immuable et garantit que les éditeurs tiers n'ont T besoin de faire confiance à Fox pour gérer leurs données.
Dans sa forme actuelle, Verify ressemble un BIT à un simple vérificateur de base de données, une simple application web utilisant la technologie de Polygon pour KEEP les images et les URL. Mais cela ne signifie T qu'il est inutile, notamment pour aider les éditeurs traditionnels à gérer leurs contrats de licence dans un contexte de modèles linguistiques complexes.
Vérifier pour les consommateurs
Nous avons continué et téléchargé du contenu dans l'application Web de Verify pour voir à quel point cela fonctionne bien dans l'utilisation quotidienne, et il ne nous a T fallu longtemps pour remarquer les limites de l'application pour le cas d'utilisation grand public.
L'application Verify dispose d'une zone de saisie de texte pour les URL. Lorsque nous avons inséré un article de Fox News de mardi surELON Musk et des deep fakes (qui figuraient en bonne place sur le site) et après avoir appuyé sur « Entrée », une série d'informations attestant de la provenance de l'article sont apparues. Outre le hachage et la signature de la transaction (données de la transaction blockchain Polygon représentant le contenu), l'application Verify a également affiché les métadonnées associées à l'article, les informations de licence et un ensemble d'images apparaissant dans le contenu.

Nous avons ensuite téléchargé et rechargé une de ces images dans l'outil pour vérifier si elle pouvait être vérifiée. Ce faisant, des données similaires à celles obtenues en saisissant l'URL nous ont été présentées. (Lorsque nous avons essayé une autre image, nous pouvions également cliquer sur un LINK pour voir d'autres articles de Fox dans lesquels l'image avait été utilisée. Super !)

Bien que Verify ait accompli ces tâches simples comme annoncé, il est difficile d'imaginer que de nombreuses personnes auront besoin de « vérifier » la source du contenu qu'elles ont récupéré directement sur le site Web de Fox News.
Dans sa documentation, Verify suggère qu'un utilisateur potentiel du service pourrait être une personne qui tombe sur un article sur les réseaux sociaux et souhaite déterminer s'il provient d'une source présumée. Lorsque nous avons soumis Verify à ce scénario réel, nous avons rencontré des problèmes.
Nous avons trouvé un fonctionnaireArticle de Fox News sur X (anciennement Twitter) présentant le même article que celui que nous avions vérifié initialement, et nous avons ensuite téléchargé l'URL de l'article de X dans Verify. Bien qu'un clic sur le LINK X mène ONE à la page Fox News que nous avions vérifiée initialement – et que Verify ait pu afficher un aperçu de l'article – Verify n'a T pu nous confirmer l'authenticité de l'article cette fois-ci.
Mark Ruffalo blasts Musk's X for allowing 'disinformation' after sharing AI fakes of Trump on Epstein flight https://t.co/oxVxwyhuPD
— Fox News (@FoxNews) January 10, 2024
Nous avons ensuite fait une capture d'écran de la vignette de la publication de Fox News : une des mêmes images Fox que nous avions publiées la dernière fois. Cette fois, on nous a indiqué que l'image ne pouvait T être authentifiée. Il s'avère que si une image est manipulée de quelque manière que ce soit – y compris des vignettes légèrement recadrées ou des captures d'écran aux dimensions T – l'application Verify sera perturbée.

Certaines de ces lacunes techniques seront certainement corrigées, mais il existe des problèmes d’ingénierie encore plus complexes auxquels Fox devra faire face s’il espère aider les consommateurs à comprendre le contenu généré par l’IA.
Même lorsque Verify fonctionne comme annoncé, il ne peut T déterminer si le contenu a été généré par l'IA ; il indique seulement qu'il provient de Fox (ou de toute autre source qui l'a mis en ligne, en supposant que d'autres éditeurs utilisent Verify à l'avenir). Si l'objectif est d'aider les consommateurs à distinguer le contenu généré par l'IA du contenu Human , cela ne sert à T . Même des médias d'information fiables comme Sports Illustrated sont devenus impliqué dans la controversepour utiliser du contenu généré par l'IA.
Il y a aussi le problème de l'apathie des utilisateurs. Ils ont tendance à ne pas se soucier de la véracité de ce qu'ils lisent, comme Fox le sait certainement. C'est particulièrement vrai lorsque les gensje veux que quelque chose soit vrai.
Pour qu'une fonctionnalité comme Verify soit utile aux consommateurs, ONE faudra l'intégrer directement aux outils de consultation de contenu, comme les navigateurs web et les réseaux sociaux. On pourrait imaginer une sorte de badge, à la manière de notes communautaires, qui apparaît sur le contenu qui a été ajouté à la base de données Verify.
Vérifier pour les éditeurs
Il est injuste de critiquer cette version rudimentaire de Verify, sachant que Fox a pris l'initiative de la qualifier de bêta. De plus, Fox ne se concentre T uniquement sur les consommateurs de médias grand public, comme nous l'avons fait lors de nos tests.
Le partenaire de Fox, Polygon, a déclaré dans un communiqué de presse partagé avec CoinDesk que « Verify établit un pont technique entre les sociétés de médias et les plateformes d'IA » et dispose de fonctionnalités supplémentaires pour aider à créer « de nouvelles opportunités commerciales pour les propriétaires de contenu en utilisant des contrats intelligents pour définir des conditions programmatiques d'accès au contenu. »
Bien que les détails ici soient quelque peu vagues, l'idée semble être que Verify servira en quelque sorte de base de données mondiale pour les plateformes d'IA qui parcourent le Web à la recherche de contenu d'actualité - offrant un moyen aux plateformes d'IA de glaner de l'authenticité et aux éditeurs de protéger leur contenu derrière des restrictions de licence et des murs payants.
Pour que ce système fonctionne, Verify aurait probablement besoin de l'adhésion d'un nombre important d'éditeurs et d'entreprises d'IA ; pour l'instant, la base de données ne contient qu'environ 90 000 articles provenant d'éditeurs appartenant à Fox, dont Fox News et Fox Sports. L'entreprise affirme également avoir ouvert la voie à d'autres éditeurs pour l'enrichir et avoir mis son code en open source pour ceux qui souhaitent créer de nouvelles plateformes basées sur sa technologie.
Même dans son état actuel, le cas d’utilisation de licence pour Verify semble être une idée solide, en particulier à la lumière des questions juridiques épineuses auxquelles les éditeurs et les sociétés d’IA sont actuellement confrontés.
Dans un dossier récemment déposéprocèsContre OpenAI et Microsoft, le New York Times a allégué que son contenu avait été utilisé sans autorisation pour entraîner des modèles d'IA. Verify pourrait fournir un cadre standard permettant aux entreprises d'IA d'accéder au contenu en ligne, donnant ainsi aux éditeurs de presse un avantage dans leurs négociations avec ces entreprises.
Remarque : Les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et affiliés.
Sam Kessler
Sam est rédacteur en chef adjoint de CoinDesk pour la technologie et les protocoles. Ses reportages portent sur les Technologies décentralisées, les infrastructures et la gouvernance. Sam est titulaire d'un diplôme en informatique de l'Université Harvard, où il a dirigé la Harvard Political Review. Fort d'une expérience dans le secteur Technologies , il possède des actifs en ETH et en BTC. Sam faisait partie de l'équipe qui a remporté le prix Gerald Loeb 2023 pour la couverture par CoinDesk de Sam Bankman-Fried et de l'effondrement de FTX.
