Partager cet article

Pouvons-nous un jour faire confiance aux agents IA ?

L'IA décentralisée nous donne un moyen de faire confiance aux agents qui peupleront bientôt nos vies numériques, déclare Marko Stokic, responsable de l'IA chez Oasis.

Le célèbre psychologue de Harvard, B.F. Skinner, a un jour déclaré que « le véritable problème n'est pas de savoir si les machines pensent, mais si les hommes le font ». Cette remarque pleine d'esprit souligne un point autrefois crucial : notre confiance dans la Technologies repose sur le jugement Human . Ce n'est pas l'intelligence artificielle qui devrait nous préoccuper, mais la sagesse et la responsabilité de ceux qui la contrôlent. Ou du moins, cela. étaitl'affaire.

Alors que des logiciels comme ChatGPT font désormais partie intégrante de la vie professionnelle de nombreuses personnes, la vision de Skinner paraît presque désuète. L'essor fulgurant des agents IA – des entités logicielles capables de percevoir leur environnement et d'agir pour atteindre des objectifs spécifiques – a fondamentalement bouleversé les paradigmes. Ces assistants numériques, nés de l'essor de l'IA grand public au début des années 2020, imprègnent désormais nos vies numériques, prenant en charge des tâches allant de la prise de rendez-vous à la prise de décisions d'investissement.

La Suite Ci-Dessous
Ne manquez pas une autre histoire.Abonnez vous à la newsletter The Node aujourd. Voir Toutes les Newsletters

Que sont les agents IA ?

Les agents d'IA diffèrent considérablement des grands modèles de langage (LLM) comme ChatGPT par leur capacité d'action autonome. Alors que les LLM traitent et génèrent principalement du texte, les agents d'IA sont conçus pour percevoir leur environnement, prendre des décisions et agir pour atteindre des objectifs spécifiques. Ces agents combinent diverses technologies d'IA, notamment le traitement du langage naturel, la vision par ordinateur et l'apprentissage par renforcement, ce qui leur permet de s'adapter et Guides de leurs expériences.

Mais à mesure que les agents d'IA prolifèrent et se multiplient, un malaise persistant se fait jour. Pourrons-nous un jour vraiment faire confiance à ces entités numériques ? La question est loin d'être théorique. Les agents d'IA opèrent dans des environnements complexes, prenant des décisions basées sur de vastes ensembles de données et des algorithmes complexes que même leurs créateurs peinent à appréhender pleinement. Cette opacité inhérente engendre la méfiance. Lorsqu'un agent d'IA recommande un traitement médical ou prédit les tendances du marché, comment pouvons-nous être certains du raisonnement qui sous-tend ses choix ?

Les conséquences d'une confiance mal placée dans les agents d'IA pourraient être désastreuses. Imaginez un conseiller financier piloté par l'IA qui provoquerait par inadvertance un effondrement des Marchés à cause d'une donnée mal interprétée, ou une IA du secteur de la santé qui recommanderait des traitements inadaptés sur la base de données d'entraînement biaisées. Le risque de préjudice ne se limite pas à certains secteurs ; à mesure que les agents d'IA s'intègrent à notre quotidien, leur influence croît de manière exponentielle. Un faux pas pourrait se répercuter sur toute la société, affectant tous les aspects, de la Politique de confidentialité à l'économie mondiale.

Au cœur de ce déficit de confiance se trouve un problème fondamental : la centralisation. Le développement et le déploiement des modèles d’IA ont été largement confiés à une poignée de géants de la technologie. Ces modèles d’IA centralisés fonctionnent comme des boîtes noires, leurs processus décisionnels étant occultés du regard du public. Ce manque de transparence rend pratiquement impossible la confiance accordée à leurs décisions dans des opérations à enjeux élevés. Comment pouvons-nous compter sur un agent d’IA pour prendre des décisions cruciales lorsque nous ne pouvons ni comprendre ni vérifier son raisonnement ?

La décentralisation comme réponse

Il existe cependant une solution à ces préoccupations : l’IA décentralisée. Ce paradigme ouvre la voie à des agents IA plus transparents et plus fiables. Cette approche exploite les atouts de la Technologies blockchain et d’autres systèmes décentralisés pour créer des modèles d’IA non seulement puissants, mais aussi responsables.

Les outils permettant d'instaurer la confiance dans les agents d'IA existent déjà. Les blockchains permettent des calculs vérifiables, garantissant ainsi l'audit et la traçabilité des actions de l'IA. Chaque décision prise par un agent d'IA pourrait être enregistrée dans un registre public, offrant une transparence sans précédent. Parallèlement, des techniques cryptographiques avancées comme l'apprentissage automatique des environnements d'exécution sécurisés (TeeML) peuvent protéger les données sensibles et préserver l'intégrité des modèles, garantissant ainsi transparence et Politique de confidentialité.

Alors que les agents d'IA opèrent de plus en plus à proximité ou directement sur des blockchains publiques, le concept de vérifiabilité devient crucial. Les modèles d'IA traditionnels peinent à prouver l'intégrité de leurs opérations, mais les agents d'IA basés sur la blockchain peuvent fournir des garanties cryptographiques de leur comportement. Cette vérifiabilité n'est pas seulement une subtilité technique ; c'est une exigence fondamentale de confiance dans les environnements à enjeux élevés.

Les techniques de calcul confidentiel, notamment les environnements d'exécution de confiance (EEC), offrent un niveau de sécurité important. Les EEC offrent une enclave sécurisée où les calculs d'IA peuvent s'effectuer, à l'abri de toute interférence potentielle. Cette Technologies garantit que même les opérateurs du système d'IA ne peuvent pas altérer ni espionner le processus décisionnel de l'agent, renforçant ainsi la confiance.

Des frameworks comme Runtime Off-chain Logic (ROFL) d'Oasis Network représentent la pointe de cette approche, permettant une intégration transparente de calculs d'IA vérifiables avec auditabilité et transparence on-chain. Ces innovations élargissent les possibilités des applications pilotées par l'IA tout en maintenant les normes de confiance et de transparence les plus strictes.

Vers un avenir de l'IA digne de confiance

La voie vers des agents d'IA fiables n'est pas sans défis. Des obstacles techniques subsistent, et l'adoption généralisée de systèmes d'IA décentralisés nécessitera une évolution des pratiques industrielles et une meilleure compréhension du public. Cependant, les bénéfices potentiels sont immenses. Imaginez un monde où les agents d'IA prennent des décisions cruciales en toute transparence, où leurs actions peuvent être vérifiées et auditées par tous, et où la puissance de l'intelligence artificielle est distribuée plutôt que concentrée entre les mains de quelques entreprises.

Il existe également une chance de générer une croissance économique significative. ONE 2023 étudeUne étude réalisée à Pékin a révélé qu'une augmentation de 1 % de la pénétration de l'IA entraînait une hausse de 14,2 % de la productivité totale des facteurs (PTF). Cependant, la plupart des études sur la productivité de l'IA se concentrent sur les LLM généraux, et non sur les agents IA. Des agents IA autonomes, capables d'effectuer plusieurs tâches de manière indépendante, pourraient potentiellement générer des gains de productivité plus importants. Des agents IA fiables et vérifiables seraient probablement encore plus efficaces.

Il est peut-être temps de réviser la célèbre citation de Skinner. Le véritable problème n'est plus de savoir si les machines pensent, mais si nous pouvons leur faire confiance. Grâce à l'IA décentralisée et à la blockchain, nous disposons des outils nécessaires pour instaurer cette confiance. La question est désormais de savoir si nous avons la sagesse de les utiliser.

Remarque : les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et sociétés affiliées.

Remarque : Les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et affiliés.

Marko Stokic