Share this article

Ce que la gouvernance de l'IA peut Guides de l'éthique de décentralisation des cryptomonnaies

D'éminents détracteurs du développement de l'IA appellent à une intervention gouvernementale pour conjurer la menace d'extinction de Human . Mais une régulation centralisée de ce secteur ne suffit pas, affirme Michael J. Casey.

WASHINGTON, DC - MAY 16: Samuel Altman, CEO of OpenAI, appears for testimony before the Senate Judiciary Subcommittee on Privacy, Technology, and the Law May 16, 2023 in Washington, DC. The committee held an oversight hearing to examine A.I., focusing on rules for artificial intelligence. (Photo by Win McNamee/Getty Images)
WASHINGTON, DC - MAY 16: Samuel Altman, CEO of OpenAI, appears for testimony before the Senate Judiciary Subcommittee on Privacy, Technology, and the Law May 16, 2023 in Washington, DC. The committee held an oversight hearing to examine A.I., focusing on rules for artificial intelligence. (Photo by Win McNamee/Getty Images)

Les titans de la technologie américaine sont rapidement passés du statut de techno-utopistes égoïstes à celui de propagateurs les plus virulents d’un récit techno-dystopique.

Cette semaine, une lettre signée par plus de 350 personnes, dont le fondateur de Microsoft Bill Gates, le PDG d'OpenAI Sam Altman et l'ancien scientifique de Google Geoffrey Hinton (parfois appelé le « Parrain de l'IA ») a prononcé une phrase unique et déclarative : « Atténuer le risque d'extinction de l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle sociétale tels que les pandémies et la guerre nucléaire. »

STORY CONTINUES BELOW
Don't miss another story.Subscribe to the The Node Newsletter today. See all newsletters

Vous lisezL'argent réinventéUn regard hebdomadaire sur les Événements et tendances technologiques, économiques et sociaux qui redéfinissent notre rapport à l'argent et transforment le système financier mondial. Abonnez-vous pour recevoir la newsletter complète. ici.

Il y a seulement deux mois, une ouverture plus précocelettre Signé par ELON Musk, PDG de Tesla et de Twitter, ainsi que par 31 800 autres, ce document a appelé à une pause de six mois dans le développement de l'IA afin de permettre à la société de déterminer les risques pour l'humanité. un éditorial pour TIME La même semaine, Eliezer Yudkowsky, considéré comme le fondateur de l'intelligence artificielle générale (IAG), a déclaré qu'il refusait de signer cette lettre, la jugeant T . Il a plutôt appelé à la fermeture militaire des laboratoires de développement de l'IA, de peur qu'un être numérique sensible n'apparaisse et ne tue chacun d'entre nous.

Les dirigeants mondiaux auront du mal à ignorer les préoccupations de ces experts reconnus. Il est désormais largement admis qu'une menace pèse sur l'existence Human . La question est : comment, précisément, l'atténuer ?

Comme je l'aiécrit précédemmentJe vois un rôle pour l'industrie des Crypto , en collaboration avec d'autres solutions technologiques et en accord avec une réglementation réfléchie qui encourage l'innovation centrée sur l'humain, dans les efforts de la société pour KEEP l'IA dans son domaine. Les blockchains peuvent contribuer à la provenance des données, à la fourniture de preuves pour prévenir les deep fakes et autres formes de désinformation, et à la promotion d'une propriété collective plutôt qu'corporative. Mais même en laissant de côté ces considérations, je pense que la contribution la plus précieuse de la communauté Crypto réside dans son « état d'esprit de décentralisation », qui offre une perspective unique sur les dangers posés par la concentration de la propriété d'une Technologies aussi puissante.

Une vision byzantine des risques de l'IA

Tout d’abord, qu’est-ce que j’entends par cet « état d’esprit de décentralisation » ?

CORE, la Crypto est imprégnée d'une philosophie du « ne faites T confiance, vérifiez ». Les développeurs de Crypto purs et durs – plutôt que les avides d'argent dont les casinos à jetons centralisés jettent le discrédit sur l'industrie – s'y livrent sans relâche. «ALICE et Bob » Des expériences de pensée ont été menées pour considérer tous les vecteurs de menace et les points de défaillance par lesquels un acteur malveillant pourrait, intentionnellement ou non, être en mesure de nuire. Bitcoin lui-même est né de la tentative de Satoshi Nakamoto de résoudre ONEun des scénarios les plus célèbres de la théorie des jeux : Le problème des généraux byzantins, qui consiste à savoir comment faire confiance aux informations provenant de quelqu'un que vous ne connaissez T .

La décentralisation est considérée comme la solution pour gérer ces risques. L'idée est que, s'il n'existe pas d'entité unique et centralisée disposant de pouvoirs intermédiaires pour déterminer l'issue d'un échange entre deux acteurs, et que ces derniers peuvent se fier aux informations disponibles sur cet échange, la menace d'intervention malveillante est neutralisée.

Appliquons maintenant cette vision du monde aux exigences énoncées dans la lettre de cette semaine sur « l’extinction » de l’IA.

Sur le même sujet : Allison Duettmann – Comment la Crypto peut contribuer à sécuriser l’IA

Les signataires souhaitent que les gouvernements s'unissent et élaborent des politiques internationales pour faire face à la menace de l'IA. C'est un objectif noble, mais la logique de la décentralisation le trahirait de naïveté. Comment pouvons-nous supposer que tous les gouvernements, présents et futurs, reconnaîtront que leurs intérêts sont servis par la coopération plutôt que par l'isolement – ​​ou pire, qu'ils T diront ONE et en feront tout le contraire ? (Si vous pensez qu'il est difficile de surveiller le programme d'armement nucléaire de la Corée du Nord, essayez de vous cacher derrière un mur de chiffrement financé par le Kremlin pour observer ses expériences d'apprentissage automatique.)

C'était une chose de s'attendre à une coordination mondiale autour de la pandémie de COVID, alors que chaque pays avait besoin de vaccins, ou de s'attendre à ce que la logique de destruction mutuelle assurée (DMA) Cela conduirait même les ennemis les plus acharnés de la Guerre froide à accepter de ne même pas se doter d'armes nucléaires, alors que le pire scénario est évident pour tous. C'en est une autre que cela se produise dans un contexte aussi imprévisible que l'évolution de l'IA – et, tout aussi important, où des acteurs non gouvernementaux peuvent facilement utiliser cette Technologies indépendamment des gouvernements.

L'inquiétude quecertains membres de la communauté Crypto L'idée que ces grands acteurs de l'IA se précipitent pour réglementer est qu'ils créeront un fossé pour protéger leur avantage de précurseur, rendant ainsi plus difficile leur concurrence. Pourquoi est-ce important ? Parce qu'en soutenant un monopole, vous créez le risque centralisé que ces expériences Crypto vieilles de plusieurs décennies nous recommandent d'éviter.

Je n'ai jamais accordé beaucoup de crédit à la devise de Google « Ne pas faire le mal », mais même si Alphabet, Microsoft, OpenAI et consorts sont bien intentionnés, comment puis-je être sûr que leur Technologies ne sera T récupérée par un conseil d'administration, un gouvernement ou un hacker aux motivations différentes à l'avenir ? Ou, plus innocemment, si cette Technologies existe dans une boîte noire d'entreprise impénétrable, comment des personnes extérieures peuvent-elles vérifier le code de l'algorithme pour s'assurer qu'un développement bien intentionné ne déraille pas par inadvertance ?

Et voici une autre expérience de pensée pour examiner le risque de centralisation pour l’IA :

Si, comme le croient des gens comme Yudkowsky, l’IA est vouée, dans sa trajectoire actuelle, àStatut de l'intelligence artificielle générale (AGI), dotée d'une intelligence qui pourrait la conduire à conclure qu'elle devrait tous nous tuer, quel scénario structurel la conduirait à cette conclusion ? Si les données et la capacité de traitement qui maintiennent l'IA « en vie » sont concentrées dans une seule entité susceptible d'être neutralisée par un gouvernement ou un PDG inquiet, on pourrait logiquement affirmer que l'IA nous tuerait alors pour empêcher cette éventualité. Mais si l'IA elle-même « vit » au sein d'un réseau décentralisé, résistant à la censure et impossible à neutraliser, cette intelligence numérique ne se sentira T suffisamment menacée pour nous éradiquer.

Bien sûr, je n'ai aucune idée si les choses se dérouleraient ainsi. Mais en l'absence de boule de cristal, la logique de la thèse de l'IAG de Yudowskly exige que nous nous livrions à ces expériences de pensée pour réfléchir à la façon dont cet ennemi potentiel du futur pourrait « penser ».

Trouver le bon mélange

Bien sûr, la plupart des gouvernements auront du mal à accepter tout cela. Ils préféreront naturellement le message « Réglementez-nous » que Altman d'OpenAI et d'autres véhiculent activement en ce moment. Les gouvernements veulent le contrôle ; ils veulent pouvoir assigner les PDG à comparaître et ordonner des fermetures. C'est dans leur ADN.

Et, soyons clairs, soyons réalistes. Nous vivons dans un monde organisé autour des États-nations. Qu'on le veuille ou non, c'est ce système juridictionnel qui nous impose nos limites. Nous n'avons d'autre choix que d'intégrer un certain niveau de réglementation à la stratégie d'atténuation de l'extinction de l'IA.

Le défi consiste à trouver le bon équilibre complémentaire entre la réglementation gouvernementale nationale, les traités internationaux et les modèles de gouvernance décentralisés et transnationaux.

Il y a peut-être des leçons à tirer de l'approche adoptée par les gouvernements, les institutions universitaires, les entreprises privées et les organisations à but non lucratif pour réguler Internet. Par l'intermédiaire d'organismes tels que l'Internet Corporation for Assigned Names (ICANN) et l'Internet Engineering Task Force(IETF)Nous avons mis en place des cadres multipartites pour permettre le développement de normes communes et permettre la résolution des conflits par l’arbitrage plutôt que par les tribunaux.

Une certaine réglementation de l'IA sera sans aucun doute nécessaire, mais il est impossible que cette Technologies ouverte, sans frontières et en constante évolution soit entièrement contrôlée par les gouvernements. Espérons qu'ils parviendront à mettre de côté leur hostilité actuelle envers le secteur des Crypto et à solliciter ses conseils pour résoudre ces défis grâce à des approches décentralisées.

Note: The views expressed in this column are those of the author and do not necessarily reflect those of CoinDesk, Inc. or its owners and affiliates.

Michael J. Casey

Michael J. Casey is Chairman of The Decentralized AI Society, former Chief Content Officer at CoinDesk and co-author of Our Biggest Fight: Reclaiming Liberty, Humanity, and Dignity in the Digital Age. Previously, Casey was the CEO of Streambed Media, a company he cofounded to develop provenance data for digital content. He was also a senior advisor at MIT Media Labs's Digital Currency Initiative and a senior lecturer at MIT Sloan School of Management. Prior to joining MIT, Casey spent 18 years at The Wall Street Journal, where his last position was as a senior columnist covering global economic affairs.

Casey has authored five books, including "The Age of Cryptocurrency: How Bitcoin and Digital Money are Challenging the Global Economic Order" and "The Truth Machine: The Blockchain and the Future of Everything," both co-authored with Paul Vigna.

Upon joining CoinDesk full time, Casey resigned from a variety of paid advisory positions. He maintains unpaid posts as an advisor to not-for-profit organizations, including MIT Media Lab's Digital Currency Initiative and The Deep Trust Alliance. He is a shareholder and non-executive chairman of Streambed Media.

Casey owns bitcoin.

CoinDesk News Image