Logo
Поделиться этой статьей

Чему управление с использованием искусственного интеллекта может Словарь у децентрализации криптовалют

Известные критики развития ИИ призывают к вмешательству правительства, чтобы предотвратить угрозу вымирания Human . Но нам нужно больше, чем централизованное регулирование этой отрасли, утверждает Майкл Дж. Кейси.

Титаны американских технологий быстро прошли путь от техноутопистов, которых критики называли корыстными техноутопистами, до самых ярых пропагандистов техно-дистопийного повествования.

На этой неделе в письме, подписанном более чем 350 людьми, включая основателя Microsoft Билла Гейтса, генерального директора OpenAI Сэма Альтмана и бывшего ученого Google Джеффри Хинтона (иногда называемого «крестным отцом ИИ»), содержалось одно декларативное предложение: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

Продолжение Читайте Ниже
Не пропустите другую историю.Подпишитесь на рассылку The Node сегодня. Просмотреть все рассылки

Вы читаетеПереосмысление денег, еженедельный обзор технологических, экономических и социальных Мероприятия и тенденций, которые переопределяют наши отношения с деньгами и трансформируют мировую финансовую систему. Подпишитесь, чтобы получить полную рассылку здесь.

Всего два месяца назад, ранее открытоеписьмо подписанное генеральным директором Tesla и Twitter ELON Маском и еще 31 800 другими лицами, призвало к шестимесячной паузе в разработке ИИ, чтобы позволить обществу определить его риски для человечества. В статья для TIME На той же неделе Элиезер Юдковски, которого считают основателем области искусственного интеллекта (AGI), заявил, что отказался подписывать это письмо, поскольку оно T зашло достаточно далеко. Вместо этого он призвал к военному принудительному закрытию лабораторий по разработке ИИ, чтобы не появилось разумное цифровое существо, которое убьет каждого из нас.

Мировым лидерам будет трудно игнорировать опасения этих высоко признанных экспертов. Сейчас широко распространено понимание того, что угроза Human существованию действительно существует. Вопрос в том: как именно мы должны ее смягчить?

Как я уже сказалнаписано ранее, я вижу роль Криптo , работающей с другими технологическими решениями и в сочетании с продуманным регулированием, которое поощряет инновационные, ориентированные на человека инновации, в усилиях общества по KEEP ИИ на своем пути. Блокчейны могут помочь с происхождением входных данных, с доказательствами для предотвращения глубоких фейков и других форм дезинформации, а также обеспечить коллективное, а не корпоративное владение. Но даже оставив в стороне эти соображения, я думаю, что наиболее ценный вклад Криптo заключается в его «децентрализованном мышлении», которое предлагает уникальный взгляд на опасности, создаваемые концентрированным владением такой мощной Технологии.

Византийский взгляд на риски ИИ

Во-первых, что я подразумеваю под «децентрализованным мышлением»?

Ну, по своей CORE, Криптo пропитана духом «T доверяй, проверяй». Упорные разработчики Криптo — а не хапуги, чьи централизованные казино с токенами позорят отрасль — неустанно занимаются «ALICE и Боб» мысленные эксперименты для рассмотрения всех векторов угроз и точек отказа, с помощью которых мошенник может намеренно или непреднамеренно нанести вред. Сам Bitcoin был рожден Сатоши, пытающимся решить ONE из самых известных сценариев теории игр, Проблема византийских генералов, в котором рассказывается о том, как доверять информации от T человека.

Мышление рассматривает децентрализацию как способ решения этих рисков. Идея заключается в том, что если нет единого централизованного субъекта с посредническими полномочиями для определения результата обмена между двумя субъектами, и оба могут доверять имеющейся информации об этом обмене, то угроза злонамеренного вмешательства нейтрализуется.

Теперь давайте применим это мировоззрение к требованиям, изложенным в письме этой недели о «вымирании» ИИ.

Читать дальше: Эллисон Дуэттманн — Как Криптo может помочь защитить ИИ

Подписавшие хотят, чтобы правительства объединились и разработали политику международного уровня для борьбы с угрозой ИИ. Это благородная цель, но децентрализованное мышление скажет, что это наивно. Как мы можем предполагать, что все правительства, нынешние и будущие, поймут, что их интересам служит сотрудничество, а не действия в одиночку, или, что еще хуже, что они T будут говорить ONE , а делать другое? (Если вы думаете, что контролировать ядерную программу Северной Кореи сложно, попробуйте залезть за финансируемую Кремлем стену шифрования, чтобы заглянуть в ее эксперименты по машинному обучению.)

ONE дело ожидать глобальной координации в борьбе с пандемией COVID, когда каждая страна нуждается в вакцинах, или ожидать, что логика взаимно гарантированное уничтожение (ВГУ) заставило бы даже самых злейших врагов в Холодной войне согласиться не приносить даже ядерное оружие, где худший сценарий настолько очевиден для всех. Другое дело, если это происходит вокруг чего-то столь непредсказуемого, как направление ИИ – и, что не менее важно, где негосударственные субъекты могут легко использовать Технологии независимо от правительств.

Обеспокоенность тем, чтонекоторые в Криптo Что касается этих крупных игроков ИИ, спешащих регулировать, то они создадут ров, чтобы защитить свое преимущество первопроходца, что усложнит задачу конкурентов по их преследованию. Почему это важно? Потому что, поддерживая монополию, вы создаете очень централизованный риск, которого эти десятилетние мысленные эксперименты с Криптo говорят нам избегать.

Я никогда не придавал большого значения девизу Google «Do No Evil», но даже если Alphabet, Microsoft, OpenAI и компания имеют благие намерения, как я могу быть уверен, что их Технологии T будет заимствована в будущем другим мотивированным исполнительным советом, правительством или хакером? Или, в более невинном смысле, если эта Технологии существует внутри непроницаемого корпоративного черного ящика, как посторонние могут проверить код алгоритма, чтобы убедиться, что благонамеренная разработка непреднамеренно не сойдет с рельсов?

А вот еще один мысленный эксперимент для изучения риска централизации ИИ:

Если, как полагают такие люди, как Юдковски, ИИ обречен на то, что, следуя по своей нынешней траектории,Статус искусственного интеллекта общего назначения (AGI), с интеллектом, который может привести его к выводу, что он должен убить нас всех, какой структурный сценарий приведет его к такому выводу? Если данные и вычислительная мощность, которые поддерживают ИИ «живым», сосредоточены в одной сущности, которую может отключить правительство или обеспокоенный генеральный директор, ONE было бы логически утверждать, что ИИ затем убьет нас, чтобы предотвратить такую ​​возможность. Но если сам ИИ «живет» в децентрализованной, устойчивой к цензуре сети узлов, которые нельзя отключить, этот цифровой разумный T будет чувствовать достаточной угрозы, чтобы искоренить нас.

Я понятия не имею, конечно, как все будет развиваться. Но в отсутствие хрустального шара логика тезиса Юдовского об AGI требует, чтобы мы занялись этими мысленными экспериментами, чтобы рассмотреть, как этот потенциальный будущий враг может «думать».

Поиск правильного сочетания

Конечно, большинство правительств будут бороться за то, чтобы купить что-либо из этого. Они, естественно, предпочтут сообщение «пожалуйста, регулируйте нас», которое Альтман из OpenAI и другие активно доносят прямо сейчас. Правительства хотят контроля; они хотят возможности вызывать в суд генеральных директоров и отдавать распоряжения об отключении. Это у них в ДНК.

И, чтобы было ясно, нам нужно быть реалистами. Мы живем в мире, организованном вокруг национальных государств. Нравится нам это или нет, но это юрисдикционная система, в которой мы застряли. У нас нет выбора, кроме как включить некоторый уровень регулирования в стратегию смягчения вымирания ИИ.

Задача состоит в том, чтобы найти правильное, взаимодополняющее сочетание национального государственного регулирования, международных договоров и децентрализованных, транснациональных моделей управления.

Возможно, есть уроки, которые можно извлечь из подхода, который правительства, академические учреждения, частные компании и некоммерческие организации использовали для регулирования Интернета. Через такие органы, как Корпорация по присвоению имен в Интернете (ИКАНН) и Целевая группа по инжинирингу Интернета(IETF)мы внедрили многосторонние структуры, позволяющие разрабатывать общие стандарты и разрешать споры через арбитраж, а не в судах.

Некоторый уровень регулирования ИИ, несомненно, будет необходим, но нет способа, чтобы эта безграничная, открытая, быстро меняющаяся Технологии могла полностью контролироваться правительствами. Будем надеяться, что они смогут отбросить нынешнюю враждебность к Криптo и обратиться к ней за советом по решению этих проблем с помощью децентрализованных подходов.

Примечание: мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают мнение CoinDesk, Inc. или ее владельцев и аффилированных лиц.

Michael J. Casey
[@portabletext/react] Unknown block type "undefined", specify a component for it in the `components.types` prop
Michael J. Casey