- Вернуться к меню
- Вернуться к менюЦены
- Вернуться к менюИсследовать
- Вернуться к менюКонсенсус
- Вернуться к менюПартнерский материал
- Вернуться к меню
- Вернуться к меню
- Вернуться к менюВебинары и Мероприятия
Сможем ли мы когда-нибудь доверять агентам ИИ?
«Децентрализованный ИИ дает нам возможность доверять агентам, которые вскоре наполнят нашу цифровую жизнь», — говорит Марко Стокич, руководитель направления ИИ в Oasis.
Известный психолог Гарварда Б. Ф. Скиннер однажды высказал мнение, что «настоящая проблема заключается не в том, думают ли машины, а в том, думают ли люди». Это остроумное замечание подчеркивает некогда важный момент: наше доверие к Технологии зависит от Human суждения. Не о машинном интеллекте нам следует беспокоиться, а о мудрости и ответственности тех, кто им управляет. Или, по крайней мере, о том, что былслучай.
С таким программным обеспечением, как ChatGPT, которое теперь является неотъемлемой частью многих рабочих жизней, прозрение Скиннера кажется почти странным. Стремительный рост агентов ИИ — программных сущностей, способных воспринимать окружающую среду и предпринимать действия для достижения определенных целей — в корне изменил парадигму. Эти цифровые помощники, рожденные в результате бума потребительского ИИ в начале 2020-х годов, теперь проникают в нашу цифровую жизнь, выполняя задачи от планирования встреч до принятия инвестиционных решений.
Что такое агенты ИИ?
Агенты ИИ значительно отличаются от больших языковых моделей (LLM), таких как ChatGPT, своей способностью к автономным действиям. В то время как LLM в основном обрабатывают и генерируют текст, агенты ИИ предназначены для восприятия своего окружения, принятия решений и выполнения действий для достижения определенных целей. Эти агенты объединяют различные технологии ИИ, включая обработку естественного языка, компьютерное зрение и обучение с подкреплением, что позволяет им адаптироваться и Словарь на своем опыте.
Но по мере того, как агенты ИИ размножаются и итерируются, также возникает грызущее беспокойство. Сможем ли мы когда-нибудь по-настоящему доверять этим цифровым сущностям? Вопрос далеко не академический. Агенты ИИ работают в сложных средах, принимая решения на основе огромных наборов данных и замысловатых алгоритмов, которые даже их создатели с трудом могут полностью понять. Эта присущая им непрозрачность порождает недоверие. Когда агент ИИ рекомендует медицинское лечение или предсказывает рыночные тенденции, как мы можем быть уверены в обоснованности его выбора?
Последствия необоснованного доверия к агентам ИИ могут быть ужасными. Представьте себе финансового консультанта на базе ИИ, который непреднамеренно обрушивает Рынки из-за неверно истолкованной точки данных, или ИИ в здравоохранении, который рекомендует неправильное лечение на основе предвзятых данных обучения. Потенциал вреда не ограничивается отдельными секторами; по мере того, как агенты ИИ все больше интегрируются в нашу повседневную жизнь, их влияние растет экспоненциально. Ошибка может отразиться на всем обществе, затронув все: от личной Политика конфиденциальности до мировой экономики.
В основе этого дефицита доверия лежит фундаментальная проблема: централизация. Разработка и внедрение моделей ИИ в значительной степени были компетенцией горстки технологических гигантов. Эти централизованные модели ИИ работают как черные ящики, их процессы принятия решений скрыты от общественного контроля. Из-за отсутствия прозрачности практически невозможно доверять их решениям в операциях с высокими ставками. Как мы можем полагаться на то, что агент ИИ сделает критический выбор, если мы не можем понять или проверить его рассуждения?
Децентрализация как ответ
Однако решение этих проблем существует: децентрализованный ИИ. Парадигма, которая предлагает путь к более прозрачным и заслуживающим доверия агентам ИИ. Этот подход использует сильные стороны Технологии блокчейн и других децентрализованных систем для создания моделей ИИ, которые не только мощные, но и подотчетные.
Инструменты для создания доверия к агентам ИИ уже существуют. Блокчейны могут обеспечить проверяемые вычисления, гарантируя, что действия ИИ можно будет проверить и отследить. Каждое решение, принимаемое агентом ИИ, может быть записано в публичном реестре, что позволит достичь беспрецедентной прозрачности. Одновременно с этим передовые криптографические методы, такие как машинное обучение в доверенной среде выполнения (TeeML), могут защитить конфиденциальные данные и поддерживать целостность модели, достигая как прозрачности, так и Политика конфиденциальности.
Поскольку агенты ИИ все чаще работают рядом или непосредственно на публичных блокчейнах, концепция проверяемости становится решающей. Традиционные модели ИИ могут испытывать трудности с доказательством целостности своих операций, но агенты ИИ на основе блокчейна могут предоставлять криптографические гарантии своего поведения. Эта проверяемость — не просто техническая тонкость; это фундаментальное требование для доверия в средах с высокими ставками.
Конфиденциальные вычислительные технологии, в частности, доверенные среды выполнения (TEE), предлагают важный уровень гарантий. TEE обеспечивают безопасный анклав, где могут происходить вычисления ИИ, изолированный от потенциального вмешательства. Эта Технологии гарантирует, что даже операторы системы ИИ не смогут вмешиваться или шпионить за процессом принятия решений агентом, что еще больше укрепляет доверие.
Такие фреймворки, как Runtime Off-chain Logic (ROFL) от Oasis Network, представляют собой передовую часть этого подхода, обеспечивая бесшовную интеграцию проверяемых вычислений ИИ с возможностью аудита и прозрачностью в цепочке. Такие инновации расширяют возможности приложений, управляемых ИИ, при этом сохраняя самые высокие стандарты доверия и прозрачности.
На пути к надежному будущему ИИ
Путь к надежным агентам ИИ не лишен трудностей. Технические препятствия остаются, и широкое внедрение децентрализованных систем ИИ потребует изменения как в отраслевых практиках, так и в общественном понимании. Однако потенциальные выгоды огромны. Представьте себе мир, в котором агенты ИИ принимают критически важные решения с полной прозрачностью, где их действия могут быть проверены и проверены кем угодно, и где сила искусственного интеллекта распределена, а не сосредоточена в руках нескольких корпораций.
Также есть шанс разблокировать значительный экономический рост. ONE 2023 изучатьиз Пекина обнаружили, что увеличение проникновения ИИ на 1% приводит к увеличению общей производительности факторов (TFP) на 14,2%. Однако большинство исследований производительности ИИ сосредоточены на общих LLM, а не на агентах ИИ. Автономные агенты ИИ, способные выполнять несколько задач независимо, потенциально могут дать больший прирост производительности. Надежные и проверяемые агенты ИИ, вероятно, будут еще более эффективными.
Возможно, пришло время обновить знаменитую цитату Скиннера. Реальная проблема уже не в том, думают ли машины, а в том, можем ли мы доверять их мыслям. С децентрализованным ИИ и блокчейном у нас есть инструменты для создания такого доверия. Теперь вопрос в том, есть ли у нас мудрость, чтобы их использовать.
Примечание: Мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают точку зрения CoinDesk, Inc. или ее владельцев и аффилированных лиц.
Примечание: мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают мнение CoinDesk, Inc. или ее владельцев и аффилированных лиц.
Marko Stokic
Марко Стокич — руководитель отдела ИИ в Oasis Protocol Foundation, где работает с командой, занимающейся разработкой передовых приложений ИИ, интегрированных с Технологии блокчейн. Имея опыт работы в бизнесе, интерес Марко к Криптo возник из-за Bitcoin в 2017 году и углубился благодаря его опыту во время краха рынка в 2018 году. Он получил степень магистра и приобрел опыт в венчурном капитале, сосредоточившись на корпоративных стартапах ИИ, прежде чем перейти в стартап децентрализованной идентификации, где он разрабатывал решения, сохраняющие конфиденциальность. В Oasis он объединяет стратегические идеи с техническими знаниями, чтобы отстаивать децентрализованный ИИ и конфиденциальные вычисления, обучая рынок уникальным возможностям Oasis и способствуя партнерским отношениям, которые расширяют возможности разработчиков. Как интересный публичный оратор, Марко делится мыслями о будущем ИИ, Политика конфиденциальности и безопасности на отраслевых Мероприятия, позиционируя Oasis как лидера в области ответственных инноваций ИИ.
