- Torna al menu
- Torna al menuPrezzi
- Torna al menuRicerca
- Torna al menuConsenso
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menuWebinar ed Eventi
Possiamo mai fidarci degli agenti AI?
L'intelligenza artificiale decentralizzata ci offre la possibilità di fidarci degli agenti che presto popoleranno le nostre vite digitali, afferma Marko Stokic, responsabile dell'intelligenza artificiale presso Oasis.
Il famoso psicologo di Harvard BF Skinner una volta affermò che "il vero problema non è se le macchine pensano, ma se gli uomini lo fanno". Questa arguta osservazione sottolinea un punto un tempo cruciale: che la nostra fiducia nella Tecnologie si basa sul giudizio Human . Non è dell'intelligenza delle macchine che dovremmo preoccuparci, ma della saggezza e della responsabilità di coloro che la controllano. O almeno di questo. erail caso.
Con software come ChatGPT ormai parte integrante di molte vite lavorative, l'intuizione di Skinner sembra quasi pittoresca. L'ascesa fulminea degli agenti AI, entità software in grado di percepire il loro ambiente e intraprendere azioni per raggiungere obiettivi specifici, ha cambiato radicalmente il paradigma. Questi assistenti digitali, nati dal boom dell'AI consumer dei primi anni del 2020, ora permeano le nostre vite digitali, gestendo attività che vanno dalla pianificazione degli appuntamenti alle decisioni di investimento.
Cosa sono gli agenti di intelligenza artificiale?
Gli agenti AI differiscono in modo significativo dai modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT nella loro capacità di azione autonoma. Mentre gli LLM elaborano e generano principalmente testo, gli agenti AI sono progettati per percepire il loro ambiente, prendere decisioni e intraprendere azioni per raggiungere obiettivi specifici. Questi agenti combinano varie tecnologie AI, tra cui elaborazione del linguaggio naturale, visione artificiale e apprendimento per rinforzo, consentendo loro di adattarsi e Imparare dalle loro esperienze.
Ma mentre gli agenti di intelligenza artificiale proliferano e iterano, lo stesso accade con un fastidioso disagio. Possiamo mai fidarci veramente di queste entità digitali? La domanda è tutt'altro che accademica. Gli agenti di intelligenza artificiale operano in ambienti complessi, prendendo decisioni basate su vasti set di dati e algoritmi intricati che persino i loro creatori fanno fatica a comprendere appieno. Questa opacità intrinseca genera sfiducia. Quando un agente di intelligenza artificiale raccomanda un trattamento medico o prevede le tendenze del mercato, come possiamo essere certi del ragionamento alla base delle sue scelte?
Le conseguenze di una fiducia mal riposta negli agenti AI potrebbero essere disastrose. Immaginate un consulente finanziario basato sull'AI che inavvertitamente fa crollare i Mercati a causa di un punto dati male interpretato, o un'AI sanitaria che raccomanda trattamenti errati sulla base di dati di formazione distorti. Il potenziale di danno non è limitato ai singoli settori; man mano che gli agenti AI diventano più integrati nella nostra vita quotidiana, la loro influenza cresce esponenzialmente. Un passo falso potrebbe avere ripercussioni sulla società, influenzando tutto, dalla Privacy personale all'economia globale.
Al centro di questo deficit di fiducia c'è una questione fondamentale: la centralizzazione. Lo sviluppo e l'implementazione di modelli di IA sono stati in gran parte di competenza di una manciata di giganti della tecnologia. Questi modelli di IA centralizzati operano come scatole nere, i loro processi decisionali sono oscurati dal controllo pubblico. Questa mancanza di trasparenza rende praticamente impossibile fidarsi delle loro decisioni in operazioni ad alto rischio. Come possiamo fare affidamento su un agente di IA per prendere decisioni critiche quando non possiamo comprendere o verificare il suo ragionamento?
La decentralizzazione come risposta
Tuttavia, una soluzione a queste preoccupazioni esiste: l'IA decentralizzata. Un paradigma che offre un percorso verso agenti di IA più trasparenti e affidabili. Questo approccio sfrutta i punti di forza della Tecnologie blockchain e di altri sistemi decentralizzati per creare modelli di IA che non sono solo potenti, ma anche responsabili.
Gli strumenti per creare fiducia negli agenti AI esistono già. Le blockchain possono abilitare un calcolo verificabile, assicurando che le azioni AI siano verificabili e tracciabili. Ogni decisione presa da un agente AI potrebbe essere registrata su un registro pubblico, consentendo una trasparenza senza precedenti. Contemporaneamente, tecniche crittografiche avanzate come il trusted execution environment machine learning (TeeML) possono proteggere i dati sensibili e mantenere l'integrità del modello, ottenendo sia trasparenza che Privacy.
Poiché gli agenti AI operano sempre più adiacenti o direttamente su blockchain pubbliche, il concetto di verificabilità diventa cruciale. I modelli AI tradizionali potrebbero avere difficoltà a dimostrare l'integrità delle loro operazioni, ma gli agenti AI basati su blockchain possono fornire garanzie crittografiche del loro comportamento. Questa verificabilità non è solo una finezza tecnica; è un requisito fondamentale per la fiducia in ambienti ad alto rischio.
Le tecniche di elaborazione confidenziale, in particolare gli ambienti di esecuzione attendibili (TEE), offrono un importante livello di garanzia. I TEE forniscono un'enclave sicura in cui possono verificarsi calcoli AI, isolati da potenziali interferenze. Questa Tecnologie garantisce che persino gli operatori del sistema AI non possano manomettere o spiare il processo decisionale dell'agente, rafforzando ulteriormente la fiducia.
Framework come Runtime Off-chain Logic (ROFL) di Oasis Network rappresentano l'avanguardia di questo approccio, consentendo un'integrazione senza soluzione di continuità del calcolo AI verificabile con l'audit e la trasparenza on-chain. Tali innovazioni ampliano le possibilità per le applicazioni basate su AI mantenendo al contempo i più elevati standard di fiducia e trasparenza.
Verso un futuro di intelligenza artificiale affidabile
Il percorso verso agenti AI affidabili non è privo di sfide. Rimangono ostacoli tecnici e l'adozione diffusa di sistemi AI decentralizzati richiederà un cambiamento sia nelle pratiche del settore che nella comprensione pubblica. Tuttavia, le potenziali ricompense sono immense. Immagina un mondo in cui gli agenti AI prendono decisioni critiche con piena trasparenza, in cui le loro azioni possono essere verificate e controllate da chiunque e in cui il potere dell'intelligenza artificiale è distribuito anziché concentrato nelle mani di poche aziende.
C'è anche la possibilità di sbloccare una crescita economica significativa. ONE 2023 studiodi Pechino hanno scoperto che un aumento dell'1% nella penetrazione dell'IA porta a un aumento del 14,2% nella produttività totale dei fattori (TFP). Tuttavia, la maggior parte degli studi sulla produttività dell'IA si concentra su LLM generali, non su agenti di IA. Agenti di IA autonomi in grado di eseguire più attività in modo indipendente potrebbero potenzialmente produrre maggiori guadagni di produttività. Agenti di IA affidabili e verificabili sarebbero probabilmente ancora più efficaci.
Forse è giunto il momento di aggiornare la famosa citazione di Skinner. Il vero problema non è più se le macchine pensano, ma se possiamo fidarci dei loro pensieri. Con l'intelligenza artificiale decentralizzata e la blockchain, abbiamo gli strumenti per costruire quella fiducia. La domanda ora è se abbiamo la saggezza di usarli.
Nota: le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Marko Stokic
Marko Stokic è il responsabile dell'intelligenza artificiale presso la Oasis Protocol Foundation, dove lavora con un team incentrato sullo sviluppo di applicazioni di intelligenza artificiale all'avanguardia integrate con la Tecnologie blockchain. Con un background aziendale, l'interesse di Marko per le Cripto è stato innescato da Bitcoin nel 2017 e si è approfondito attraverso le sue esperienze durante il crollo del mercato del 2018. Ha conseguito un master e acquisito competenze nel capitale di rischio, concentrandosi sulle startup di intelligenza artificiale aziendale prima di passare a una startup di identità decentralizzata, dove ha sviluppato soluzioni di tutela della privacy. In Oasis, unisce intuizioni strategiche e conoscenze tecniche per sostenere l'intelligenza artificiale decentralizzata e il computing confidenziale, istruendo il mercato sulle capacità uniche di Oasis e promuovendo partnership che potenziano gli sviluppatori. In qualità di relatore pubblico coinvolgente, Marko condivide approfondimenti sul futuro dell'intelligenza artificiale, Privacy e della sicurezza in Eventi di settore, posizionando Oasis come leader nell'innovazione responsabile dell'intelligenza artificiale.
