- Torna al menu
- Torna al menuPrezzi
- Torna al menuRicerca
- Torna al menuConsenso
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menuWebinar ed Eventi
Abbiamo provato lo strumento basato su blockchain di Fox per il rilevamento dei deepfake. Ecco come è andata
Il nuovo strumento blockchain di Fox potrebbe non aiutare i consumatori a individuare i deep fake, ma potrebbe essere una manna per gli editori che hanno difficoltà a destreggiarsi nell'era dell'intelligenza artificiale. Abbiamo messo alla prova la nuova Tecnologie.
Martedì, la Fox Corp. ha suscitato scalpore negli ambienti dei media quando ha annunciato il lancio di "Verify", un nuovo strumento basato sulla blockchain per verificare l'autenticità dei media digitali nell'era dell'intelligenza artificiale.
Il progetto affronta due problemi sempre più fastidiosi: l'intelligenza artificiale facilita la comparsa di contenuti "deepfake" che inganneranno i lettori, e gli editori scoprono spesso che i loro contenuti sono stati utilizzati per addestrare modelli di intelligenza artificiale senza autorizzazione.
Un'interpretazione cinica potrebbe essere che tutto questo è solo una grande mossa di pubbliche relazioni. Mescolare "AI" e "Blockchain" insieme in uno stufato di parole d'ordine per aiutare a creare "fiducia nelle notizie" sembra un ottimo escamotage per la stampa, soprattutto se sei un conglomerato mediatico invecchiato conproblemi di credibilitàAbbiamo visto tuttiSuccessione, non T vero?
Ma mettiamo da parte l'ironia per un momento e prendiamo sul serio Fox e il suo nuovo strumento. Per quanto riguarda il deep-fake, Fox afferma che le persone possono caricare URL e immagini nel sistema Verify per determinare se sono autentici, ovvero se un editore li ha aggiunti al database Verify. Per quanto riguarda le licenze, le aziende di intelligenza artificiale possono utilizzare il database Verify per accedere (e pagare) ai contenuti in modo conforme.
Blockchain Creative Labs, il braccio Tecnologie interno di Fox, ha stretto una partnership con Polygon, la blockchain low-fee e high-throughput che funziona in cima alla rete tentacolare Ethereum , per alimentare le cose dietro le quinte. Aggiungere nuovi contenuti a Verify significa essenzialmente aggiungere una voce a un database sulla blockchain Polygon , dove sono archiviati i suoi metadati e altre informazioni.
A differenza di molti altri esperimenti Cripto , questa volta il collegamento con la blockchain potrebbe avere una sua ragion d'essere: Polygon fornisce ai contenuti di Verify una traccia di controllo immutabile e garantisce che gli editori terzi T debbano affidarsi a Fox per la gestione dei propri dati.
Verify nel suo stato attuale sembra un BIT' un glorificato verificatore di database, una semplice app web che usa la tecnologia di Polygon per KEEP traccia di immagini e URL. Ma questo T significa che sia inutile, in particolare quando si tratta di aiutare gli editori tradizionali a destreggiarsi tra accordi di licenza nel mondo dei grandi modelli linguistici.
Verifica per i consumatori
Abbiamo caricato alcuni contenuti nell'app web di Verify per vedere quanto funzionasse bene nell'uso quotidiano e T ci è voluto molto per accorgerci dei limiti dell'app per l'uso da parte dei consumatori.
L'app Verify ha una casella di testo per gli URL. Quando abbiamo incollato un articolo di Fox News di martedì suELON Musk e deep fake (che per caso erano in evidenza sul sito) e premuto "invio", è apparso un mucchio di informazioni che attestavano la provenienza dell'articolo. Insieme a un hash di transazione e a una firma, ovvero i dati per la transazione blockchain Polygon che rappresenta il contenuto, l'app Verify ha anche mostrato i metadati associati all'articolo, le informazioni sulla licenza e un set di immagini che appaiono nel contenuto.

Abbiamo quindi scaricato e ricaricato ONE di quelle immagini nello strumento per vedere se poteva essere verificata. Quando lo abbiamo fatto, ci sono stati mostrati dati simili a quelli che avevamo visto quando abbiamo inserito l'URL. (Quando abbiamo provato un'altra immagine, potevamo anche cliccare su un LINK per vedere altri articoli Fox in cui l'immagine era stata utilizzata. Fantastico!)

Sebbene Verify abbia portato a termine questi semplici compiti come pubblicizzato, è difficile immaginare che molte persone avranno bisogno di "verificare" la fonte dei contenuti che hanno preso direttamente dal sito web di Fox News.
Nella sua documentazione, Verify suggerisce che un possibile utente del servizio potrebbe essere una persona che si imbatte in un articolo sui social media e desidera scoprire se proviene da una fonte presunta. Quando abbiamo eseguito Verify in questo scenario reale, abbiamo riscontrato dei problemi.
Abbiamo trovato un funzionarioPost di Fox News su X (la piattaforma precedentemente nota come Twitter) che presenta lo stesso articolo che avevamo verificato in origine, e abbiamo quindi caricato la versione di X dell'URL dell'articolo in Verify. Anche se cliccando sul LINK X ONE accede direttamente alla stessa pagina di Fox News che avevamo verificato in origine (e Verify è stata in grado di estrarre un'anteprima dell'articolo), questa volta Verify T è stata in grado di dirci se l'articolo fosse autentico.
Mark Ruffalo blasts Musk's X for allowing 'disinformation' after sharing AI fakes of Trump on Epstein flight https://t.co/oxVxwyhuPD
— Fox News (@FoxNews) January 10, 2024
Abbiamo quindi catturato l'immagine in miniatura dal post di Fox News: ONE delle stesse immagini Fox che abbiamo caricato l'ultima volta. Questa volta, ci è stato detto che l'immagine T poteva essere autenticata. Si scopre che se un'immagine viene manipolata in qualsiasi modo, il che include miniature leggermente ritagliate o screenshot le cui dimensioni T sono esattamente corrette, l'app Verify si confonderà.

Alcune di queste carenze tecniche saranno sicuramente risolte, ma Fox dovrà fare i conti con problemi ingegneristici ancora più complessi se spera di aiutare i consumatori a comprendere i contenuti generati dall'intelligenza artificiale.
Anche quando Verify funziona come pubblicizzato, T può dirti se il contenuto è stato generato dall'IA, ma solo che proviene da Fox (o da qualsiasi altra fonte che lo ha caricato, presumendo che altri editori utilizzino Verify in futuro). Se l'obiettivo è aiutare i consumatori a distinguere il contenuto generato dall'IA dal contenuto Human , questo T aiuta. Anche fonti di notizie affidabili come Sports Illustrated sono diventate coinvolto in una controversiaper utilizzare contenuti generati dall'intelligenza artificiale.
Poi c'è il problema dell'apatia degli utenti. Le persone tendono a non preoccuparsi tanto se ciò che leggono è vero, come Fox sicuramente sa. Ciò è particolarmente vero quando le personevoglio che qualcosa sia vero.
Affinché qualcosa come Verify sia utile per i consumatori, ONE immagina che dovrà essere integrato direttamente negli strumenti che le persone usano per visualizzare i contenuti, come i browser web e le piattaforme dei social media. Si potrebbe immaginare una specie di badge, à la note della comunità, che viene visualizzato sui contenuti aggiunti al database di verifica.
Verifica per gli editori
Sembra ingiusto criticare questa versione essenziale di Verify, dato che Fox è stata piuttosto proattiva nell'etichettarla come beta. Fox inoltre T si concentra solo sui consumatori di media generici, come abbiamo fatto noi nei nostri test.
Il partner di Fox, Polygon, ha affermato in un comunicato stampa condiviso con CoinDesk che "Verify stabilisce un ponte tecnico tra le aziende di media e le piattaforme di intelligenza artificiale" e dispone di funzionalità aggiuntive per aiutare a creare "nuove opportunità commerciali per i proprietari di contenuti utilizzando contratti intelligenti per definire condizioni programmatiche per l'accesso ai contenuti".
Sebbene i dettagli siano piuttosto vaghi, l'idea sembra essere che Verify fungerà da una sorta di database globale per le piattaforme di intelligenza artificiale che scandagliano il web alla ricerca di contenuti di notizie, offrendo alle piattaforme di intelligenza artificiale un modo per raccogliere autenticità e agli editori di proteggere i propri contenuti tramite restrizioni di licenza e paywall.
Verify avrebbe probabilmente bisogno dell'adesione di una massa critica di editori e aziende di intelligenza artificiale affinché questo genere di cose funzioni; per ora, il database include solo circa 90.000 articoli di editori di proprietà di Fox, tra cui Fox News e Fox Sports. L'azienda afferma inoltre di aver aperto le porte ad altri editori per aggiungere contenuti al database Verify e di aver reso open source il suo codice a coloro che desiderano creare nuove piattaforme basate sulla sua tecnologia.
Anche allo stato attuale, l'uso della licenza per Verify sembra un'idea solida, soprattutto alla luce delle spinose questioni legali con cui gli editori e le aziende di intelligenza artificiale si stanno confrontando.
In un documento depositato di recentecausacontro OpenAI e Microsoft, il New York Times ha affermato che il suo contenuto è stato utilizzato senza autorizzazione per addestrare modelli di intelligenza artificiale. Verify potrebbe fornire un framework standard per le aziende di intelligenza artificiale per accedere ai contenuti online, dando così agli editori di notizie una sorta di vantaggio nelle loro negoziazioni con le aziende di intelligenza artificiale.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Sam Kessler
Sam è il vicedirettore editoriale di CoinDesk per tecnologia e protocolli. Il suo lavoro di reportage è incentrato su Tecnologie decentralizzata, infrastrutture e governance. Sam ha conseguito una laurea in informatica presso l'Università di Harvard, dove ha diretto l'Harvard Political Review. Ha un background nel settore Tecnologie e possiede alcuni ETH e BTC. Sam faceva parte del team che ha vinto il Gerald Loeb Award 2023 per la copertura di CoinDesk di Sam Bankman-Fried e del crollo di FTX.
