- Повернутися до менюЦіни
- Повернутися до менюдослідження
- Повернутися до менюКонсенсус
- Повернутися до менюСпонсорський матеріал
- Повернутися до меню
- Повернутися до меню
- Повернутися до меню
- Повернутися до менюВебінари та Заходи
Чи можемо ми колись довіряти агентам ШІ?
«Децентралізований штучний інтелект дає нам можливість довіряти агентам, які незабаром заповнять наше цифрове життя», — каже Марко Стокіч, керівник відділу штучного інтелекту в Oasis.
Відомий гарвардський психолог Б. Ф. Скіннер якось висловив думку, що «справжня проблема полягає не в тому, чи думають машини, а в тому, чи думають люди». Це дотепне спостереження підкреслює важливий момент: наша довіра до Технології залежить від Human судження. Нам слід хвилюватися не про машинний інтелект, а про мудрість і відповідальність тих, хто ним керує. Або принаймні це був справа.
Оскільки таке програмне забезпечення, як ChatGPT, тепер є невід’ємною частиною багатьох робочих життів, розуміння Скіннера виглядає майже дивним. Стрімке зростання агентів штучного інтелекту – програмних об’єктів, здатних сприймати навколишнє середовище та вживати заходів для досягнення конкретних цілей – докорінно змінило парадигму. Ці цифрові помічники, народжені під час буму споживчого штучного інтелекту на початку 2020-х років, тепер проникають у наше цифрове життя, вирішуючи завдання від планування зустрічей до прийняття інвестиційних рішень.
Що таке агенти ШІ?
Агенти ШІ суттєво відрізняються від великих мовних моделей (LLM), таких як ChatGPT, своєю здатністю до автономних дій. У той час як магістратури переважно обробляють і генерують текст, агенти штучного інтелекту призначені для сприйняття свого середовища, прийняття рішень і вжиття заходів для досягнення конкретних цілей. Ці агенти поєднують різні технології штучного інтелекту, включаючи обробку природної мови, комп’ютерне бачення та навчання з підкріпленням, що дозволяє їм адаптуватися та Навчання на своєму досвіді.
Але в міру того, як агенти штучного інтелекту множаться та повторюються, зростає й жахливе занепокоєння. Чи можемо ми коли-небудь по-справжньому довіряти цим цифровим сутностям? Питання далеко не академічне. Агенти штучного інтелекту працюють у складних середовищах, приймаючи рішення на основі величезних наборів даних і складних алгоритмів, які навіть їхні творці не можуть повністю зрозуміти. Ця властива непрозорість породжує недовіру. Коли агент штучного інтелекту рекомендує медичне лікування або прогнозує ринкові тенденції, як ми можемо бути впевнені в аргументації його вибору?
Наслідки недовіри до агентів ШІ можуть бути жахливими. Уявіть фінансового консультанта на основі штучного інтелекту, який ненавмисно обвалює Ринки через неправильно витлумачену точку даних, або штучний інтелект охорони здоров’я, який рекомендує неправильне лікування на основі упереджених даних навчання. Потенціал шкоди не обмежується окремими секторами; оскільки агенти штучного інтелекту все більше інтегруються в наше повсякденне життя, їхній вплив зростає експоненціально. Помилка може вплинути на суспільство, вплинувши на все, від особистої Політика конфіденційності до глобальної економіки.
В основі цього дефіциту довіри лежить фундаментальна проблема: централізація. Розробка та розгортання моделей штучного інтелекту здебільшого належать до компетенції кількох технологічних гігантів. Ці централізовані моделі штучного інтелекту працюють як чорні скриньки, їхні процеси прийняття рішень приховані від громадського контролю. Цей брак прозорості робить фактично неможливим довіряти їхнім рішенням у операціях із високими ставками. Як ми можемо покладатися на агента штучного інтелекту для прийняття критичних рішень, коли ми не можемо зрозуміти чи перевірити його міркування?
Децентралізація як відповідь
Однак рішення цих проблем існує: децентралізований ШІ. Парадигма, яка пропонує шлях до більш прозорих і надійних агентів ШІ. Цей підхід використовує сильні сторони Технології блокчейн та інших децентралізованих систем для створення моделей ШІ, які є не тільки потужними, але й відповідальними.
Інструменти для створення довіри до агентів ШІ вже існують. Блокчейни можуть увімкнути обчислення, які можна перевірити, гарантуючи, що дії штучного інтелекту можна перевірити та відстежити. Кожне рішення, прийняте агентом штучного інтелекту, може реєструватися в публічній книзі, що забезпечує безпрецедентну прозорість. Водночас передові криптографічні методи, такі як машинне навчання довіреного середовища виконання (TeeML), можуть захистити конфіденційні дані та підтримувати цілісність моделі, досягаючи як прозорості, так і Політика конфіденційності.
Оскільки агенти штучного інтелекту все частіше працюють поруч із загальнодоступними блокчейнами або безпосередньо на них, концепція верифікованості стає вирішальною. Традиційним моделям штучного інтелекту може бути важко довести цілісність своїх операцій, але агенти штучного інтелекту на основі блокчейна можуть надати криптографічні гарантії своєї поведінки. Ця можливість перевірки є не просто технічною витонченістю; це фундаментальна вимога для довіри в середовищах з високими ставками.
Конфіденційні обчислювальні методи, зокрема довірені середовища виконання (TEE), пропонують важливий рівень гарантії. TEE забезпечують безпечний анклав, де можуть відбуватися обчислення ШІ, ізольовані від потенційного втручання. Ця Технології гарантує, що навіть оператори системи штучного інтелекту не зможуть втручатися в процес прийняття рішень агентом або стежити за ним, що ще більше зміцнює довіру.
Такі фреймворки, як Runtime Off-chain Logic (ROFL) мережі Oasis Network, представляють передовий край цього підходу, що забезпечує повну інтеграцію перевірених обчислень штучного інтелекту з можливістю аудиту та прозорістю в ланцюжку. Такі інновації розширюють можливості для програм, керованих ШІ, зберігаючи при цьому найвищі стандарти довіри та прозорості.
На шляху до надійного майбутнього ШІ
Шлях до надійних агентів ШІ не позбавлений труднощів. Технічні перешкоди залишаються, і широке впровадження децентралізованих систем штучного інтелекту вимагатиме зміни як у галузевих практиках, так і в розумінні громадськості. Проте потенційні винагороди величезні. Уявіть собі світ, де агенти штучного інтелекту приймають важливі рішення з повною прозорістю, де їхні дії можуть бути перевірені та перевірені будь-ким, і де потужність штучного інтелекту розподілена, а не зосереджена в руках кількох корпорацій.
Також є шанс розблокувати значне економічне зростання. ONE 2023 вивчення з Пекіна виявили, що збільшення проникнення штучного інтелекту на 1% призводить до зростання загальної продуктивності факторів (TFP) на 14,2%. Однак більшість досліджень продуктивності штучного інтелекту зосереджуються на загальних магістрах права, а не на агентах ШІ. Автономні агенти штучного інтелекту, здатні виконувати кілька завдань незалежно, потенційно можуть принести більший приріст продуктивності. Надійні агенти штучного інтелекту, які заслуговують на перевірку, були б ще ефективнішими.
Можливо, настав час оновити відому цитату Скіннера. Справжня проблема вже не в тому, чи думають машини, а в тому, чи можемо ми довіряти їхнім думкам. Завдяки децентралізованому штучному інтелекту та блокчейну ми маємо інструменти для побудови такої довіри. Питання в тому, чи вистачить нам мудрості їх використовувати.
Примітка. Думки, висловлені в цій колонці, належать автору та не обов’язково відображають погляди CoinDesk, Inc. або її власників і афілійованих осіб.
Примітка: Погляди, висловлені в цьому стовпці, належать автору і не обов'язково відображають погляди CoinDesk, Inc. або її власників та афіліатів.
Marko Stokic
Марко Стокіч є керівником відділу штучного інтелекту в Oasis Protocol Foundation, де працює з командою, яка зосереджена на розробці передових програм ШІ, інтегрованих із Технології блокчейн. Інтерес Марко до Крипто у 2017 році викликав Bitcoin і поглибив його досвід під час обвалу ринку в 2018 році. Він здобув ступінь магістра та набув досвіду у сфері венчурного капіталу, зосередившись на корпоративних стартапах зі штучним інтелектом, перш ніж перейти до стартапу з децентралізованою ідентифікацією, де він розробляв рішення для збереження конфіденційності. У Oasis він поєднує стратегічне розуміння з технічними знаннями, щоб виступати за децентралізований штучний інтелект і конфіденційні обчислення, навчаючи ринок про унікальні можливості Oasis і сприяючи партнерству, яке дає змогу розробникам. Як привабливий оратор, Марко ділиться ідеями про майбутнє ШІ, Політика конфіденційності та безпеки на галузевих Заходи, позиціонуючи Oasis як лідера відповідальних інновацій ШІ.
