Logo
Share this article

Як Крипто може допомогти захистити AI

Швидкий розвиток штучного інтелекту створює унікальні проблеми безпеки. Чи можуть навички та підходи, відточені Крипто , зробити ШІ безпечним для людства?

І Крипто , і штучний інтелект за останні кілька років досягли значного прогресу.

Крипто відзначає успіхи, як DeFi, і зовсім недавно DeSci.

STORY CONTINUES BELOW
Don't miss another story.Subscribe to the The Node Newsletter today. See all newsletters

AI відзначив успіхи, як AlphaFold2, і зовсім недавно ChatGPT.

У 2018 році Пітер Тіль загострений до напруги між децентралізуючими силами Крипто та централізуючими силами штучного інтелекту, ввівши термін «Крипто — це лібертаріанець, а штучний інтелект — комуніст». Тут я хочу стверджувати, що ми можемо чогось Навчання , поєднуючи обидва.

чому Тому що навички та підходи, відточені спеціалістами з питань безпеки та Крипто спільноти, мають потенціал для розблокування корисних програм ШІ та пом’якшення ризиків ШІ.

Еллісон Дуетманн є президентом і генеральним директором Foresight Institute. Вона керує Інтелектуальне співробітництво, Молекулярні машини, Розширення біотехнологій і охорони здоров'я, Нейротех, і Простір Програми, стипендії, премії та дерева технологій, а також ділиться цією роботою з громадськістю.

Ми всі помремо?

Еліезер Юдковскі, видатна постать у галузі безпеки штучного інтелекту, нещодавно несподівано з’явився на Безбанківський подкаст, чітко підкаст Web3.

Це було дивно з двох причин:

По-перше, Елізер вважає, що ми знаходимося на швидкому шляху до розробки загального штучного інтелекту (AGI), який може виконувати практично всі завдання, що й люди, і що такий AGI, швидше за все, вб’є нас усіх.

По-друге, коли його запитали, чи можна ONE зробити, щоб збільшити крихітний шанс, що ми можемо вижити, він заохочував людей, орієнтованих на безпеку та криптографію з сильним мисленням у сфері безпеки, взяти участь у вирівнюванні ШІ.

Давайте розпакуємо це. По-перше, ми обговоримо, чому нам слід турбуватися про AGI, перш ніж зупинитися на обіцянках Крипто (тут мається на увазі насамперед криптографії) та спільноти безпеки щодо пом’якшення деяких небезпек AGI.

ШІ-безпека: складніше, ніж ви думаєте?

Кожен, хто нещодавно поглянув на цю новину, може підтвердити, що не минає жодного тижня без різкого прискорення прогресу в ШІ. Якщо ви пропустили це, ось лише три важливі події:

По-перше, відбувся поштовх до більшої централізації ШІ, наприклад, Microsoft інвестувала в OpenAI, Google інвестувала в конкурента OpenAI Anthropic, а DeepMind і Google Brain об’єдналися в ONE організацію.

Читайте також: Майкл Дж. Кейсі - Чому Web3 та AI-Internet належать разом

По-друге, спостерігається поштовх до більш узагальненого ШІ. Остання стаття "GPT4: Іскри загального штучного інтелекту” показав, як GPT-4 вже демонструє перші приклади теорії розуму, міри, яка зазвичай використовується для оцінки Human інтелекту.

По-третє, спостерігався поштовх до більшої активності в системах штучного інтелекту, коли AutoGPT стає більш агентним, повторно спонукаючи себе виконувати складніші завдання.

Ще в грудні, Метакул, платформа прогнозування, передбачила появу AGI приблизно в 2039 році. Зараз, у травні, дата в 2031 році – іншими словами, восьмирічне падіння часової шкали протягом п’яти місяців розвитку ШІ.

Якщо ми сприймемо ці події як ознаки того, що ми на шляху до загального штучного інтелекту, наступне запитання: чому безпека AGI вважається такою важкою?

Можливо, ми можемо розділити проблему безпеки AGI на три підпроблеми:

Узгодження: як ми можемо узгодити ШІ з Human цінностями?

Вирівнювання штучного інтелекту – це просте питання про те, як змусити штучний інтелект узгодити наші цінності. Але легко забути, що ми навіть T погоджуємося щодо наших цінностей. З самого початку цивілізації філософи та прості смертні сперечалися про етику, переконливі з усіх боків. Ось чому наша нинішня цивілізація досягла переважно ціннісного плюралізму (ідея мирного співіснування людей із суперечливими цінностями). Це працює для різноманітності Human цінностей, але це важко реалізувати в ONE агенті зі штучним інтелектом.

Уявімо на мить, що ми приблизно знали, якими моральними цінностями озброїти AGI. Далі нам потрібно повідомити ці Human цінності кремнієвій сутності, яка T поділяє Human еволюцію, архітектуру розуму чи контекст. Коли люди координують дії з іншими людьми, ми можемо покладатися на велику кількість спільних неявних базових знань, оскільки ми поділяємо біологію нашого виду, еволюційну історію та часто навіть певний культурний контекст. З AI ми не можемо покладатися на такий загальний контекст.

Читайте також: Майкл Дж. Кейсі - Урок Web2 для ШІ: децентралізація, щоб захистити людство

Інша проблема полягає в тому, що для досягнення будь-якої мети, як правило, інструментально корисно бути живим і здобувати більше ресурсів. Це означає, що штучний інтелект, налаштований на досягнення конкретної мети, може протистояти закриттю та шукати все більше і більше ресурсів. Враховуючи незліченну кількість можливостей, за допомогою яких штучний інтелект може досягати цілей, включаючи травмування Human , недбалість, обман тощо, а також враховуючи те, як важко передбачити та надійно визначити всі ці обмеження заздалегідь, робота з технічного узгодження є складною.

комп'ютер безпеки

Навіть якщо люди домовляться про набір цінностей і з’ясують, як технічно узгодити AGI з ними, ми все одно T можемо очікувати, що він працюватиме надійно без доказів того, що базове програмне та апаратне забезпечення є надійними. Враховуючи значну перевагу, яку AGI передає своїм творцям, зловмисники можуть саботувати або перепрограмувати AGI.

Крім того, ненавмисна помилка може перешкодити виконанню мети AGI або AGI сам може використовувати вразливі місця у власному коді, наприклад, перепрограмуючи себе небезпечним чином.

На жаль, ми побудували всю сьогоднішню багатотрильйонну екосистему на незахищеній кібероснові. Більшість нашої фізичної інфраструктури базується на системах, які можна зламати, таких як електрична мережа, наші Технології ядерної зброї. У майбутньому навіть незахищені безпілотні автомобілі та автономні дрони можуть бути зламані, щоб перетворити їх на ботів-вбивць. Наростаючі кібератаки, такі як Sputnick або Solarwinds, є серйозними, але можуть бути безпечними порівняно з потенційними майбутніми атаками з підтримкою AG. Відсутність нашої суттєвої відповіді на ці атаки свідчить про те, що ми не справляємось із завданням безпечної безпеки AGI, яка може вимагати перебудови значної частини нашої незахищеної інфраструктури.

Використовуючи технології та навички в спільнотах безпеки та криптографії, ми зможемо реалізувати сценарій багатополярного суперінтелекту

Координація

Досягнення прогресу в узгодженні та безпеці AGI може зайняти час, тому для учасників, які створюють AGI, важливо координувати свою роботу. На жаль, заохотити основних суб’єктів штучного інтелекту (це можуть бути кооперації чи національні держави) співпрацювати та уникати стимулювання гонки озброєнь, щоб першими дістатися до AGI, не так просто. Катастрофа вимагає лише ONE учасника, щоб відмовитися від угоди, а це означає, що навіть якщо всі інші співпрацюють, якщо ONE біжить попереду, вони забезпечують вирішальну перевагу. Ця перевага першого учасника зберігається, доки не буде створено AGI та не надано повноважень, які унітарне розгортання системи AGI може передати її власнику, і для власника є важкою спокусою відмовитися.

Безпечний багатополярний ШІ

Можливо, ви досі кивали: «Так, звичайно, безпека штучного інтелекту – це справді важко». Але яке відношення до цього має Крипто ?

Враховуючи швидкі темпи прогресу штучного інтелекту та труднощі, пов’язані з його забезпеченням безпеки, традиційне занепокоєння полягає в тому, що ми мчимося до сценарію AGI singleton, за яким AGI витісняє Human цивілізацію як загальну структуру релевантності для інтелекту та домінує у світі, потенційно вбиваючи людство на цьому шляху.

Використовуючи технології та навички в спільнотах безпеки та криптографії, ми можемо змінити курс і натомість слідувати сценарію багатополярного суперінтелекту, за яким мережі людей та штучного інтелекту безпечно співпрацюють, щоб об’єднати свої локальні знання в колективний суперінтелект цивілізації.

Це велика, абстрактна претензія, тож давайте розберемо, як саме Крипто спільноти та спільноти безпеки можуть допомогти приборкати ризики ШІ та розкрити красу ШІ, відкриваючи нові програми.

(ArtemisDiana/GettyImages)
(ArtemisDiana/GettyImages)

Як безпека та криптографія можуть приборкати ризики ШІ?

Червона команда

Пол Крістіано, авторитетний дослідник безпеки ШІ, припускає, що Штучний інтелект відчайдушно потребує більшого об'єднання, зазвичай цей термін використовується в комп'ютерній безпеці для позначення імітованих кібератак. Red-team у контексті ШІ можна, наприклад, використовувати для пошуку вхідних даних, які викликають катастрофічну поведінку в системах машинного навчання.

Red-teaming — це також те, з чим Крипто має досвід. І Bitcoin , і Ethereum розвиваються в середовищі, яке зазнає безперервних атаок противника, оскільки незахищені проекти становлять еквівалент багатомільйонних «винагород за помилки» у Криптовалюта .

Некуленепробивні системи видаляються, залишаючи лише більше куленепробивних систем в екосистемі. Крипто проходять певний рівень конкурентного тестування, що може стати гарним джерелом натхнення для систем, здатних протистояти кібератакам, які можуть знищити звичайне програмне забезпечення.

Антизмова

Друга проблема штучного інтелекту полягає в тому, що кілька нових штучних інтелектів можуть зрештою вступити в змову, щоб повалити людство. Наприклад, "Безпека ШІ через дебати", популярна стратегія узгодження, заснована на обговоренні між двома ШІ тем, а суддя- Human в циклі вирішує, хто переможе. Однак ONE річ, яку суддя- Human , можливо, не зможе виключити, полягає в тому, що обидва ШІ змовляються проти неї, і жоден не просуває справжнього результату.

Знову ж таки, Крипто має досвід уникнення проблем змови, таких як Атака Сибіл, який використовує один вузол для роботи з багатьма активними підробленими ідентифікаторами, щоб приховано отримати більшу частину впливу в мережі. Щоб уникнути цього, у Крипто з’являється значна кількість роботи над розробкою механізмів, і деякі з них також можуть мати корисні уроки щодо змов ШІ.

Стримування та противаги

Ще один багатообіцяючий підхід до безпеки, який зараз досліджує конкурент OpenAI Anthropic, це «Конституційний ШІ”, у якому ONE штучний інтелект контролює інший штучний інтелект, використовуючи правила та принципи, надані Human. Це натхненно дизайном Конституції США, яка встановлює конфлікт інтересів і обмежені засоби в системі стримувань і противаг.

Знову ж таки, спільноти з питань безпеки та криптографії мають великий досвід роботи з механізмами стримування та балансу, подібними до конституції. Наприклад, принцип безпеки POLA (Принцип найменших повноважень) вимагає, щоб організація мала доступ лише до найменшої кількості інформації та ресурсів, необхідних для виконання своєї роботи. Корисний принцип, який також слід враховувати під час створення більш просунутих систем ШІ.

Це лише три приклади з багатьох, які дають змогу зрозуміти, як тип мислення щодо безпеки, який поширений у спільнотах із безпеки та Крипто , може допомогти у вирішенні проблем зі штучним інтелектом.

Як Крипто і безпека можуть розкрити красу ШІ?

Окрім проблем із безпекою штучного інтелекту, з якими ви можете спробувати свої сили, давайте розглянемо кілька випадків, коли інновації Крипто не лише допомагають приборкати штучний інтелект, але й розкривають його красу, наприклад, створюючи нові корисні програми.

ШІ, що зберігає конфіденційність

Є кілька сфер, яких традиційний штучний інтелект T може торкнутися, зокрема вирішення проблем, які потребують конфіденційних даних, як-от інформація про здоров’я окремих людей або фінансові дані, які мають серйозні обмеження Політика конфіденційності .

на щастя як зазначено Дослідник криптографії Георгіос Кайсіс, це сфери, в яких криптографічні та допоміжні підходи, такі як федеративне навчання, диференціальна Політика конфіденційності, гомоморфне шифрування тощо, сяють. Ці нові підходи до обчислень можуть працювати з великими конфіденційними наборами даних, зберігаючи Політика конфіденційності, і, таким чином, мають порівняльну перевагу перед централізованим ШІ.

Використання місцевих знань

Ще одна сфера, з якою бореться традиційний штучний інтелект, — це пошук локальних знань, які часто потрібні для вирішення крайових випадків у машинному навчанні (ML), які великі дані не мають сенсу.

Крипто може допомогти з наданням локальних даних шляхом створення ринків, на яких розробники можуть використовувати стимули для залучення кращих локальних даних для своїх алгоритмів. Наприклад, співзасновник Coinbase Фред Ерсам припускає поєднання приватного машинного навчання, яке дозволяє навчати конфіденційні дані, із стимулами на основі блокчейну, які залучають кращі дані до даних на основі блокчейну та ринків машинного навчання. Хоча фактичне навчання моделей машинного навчання з відкритим кодом може бути неможливим або безпечним, ринки даних можуть платити творцям за справедливу частку їхніх внесків даних.

Зашифрований ШІ

У довгостроковій перспективі можливо навіть використовувати криптографічні підходи для створення систем штучного інтелекту, які є одночасно більш безпечними та потужними.

Наприклад, дослідник криптографії Ендрю Траск припускає використання гомоморфного шифрування для повного шифрування нейронної мережі. Якщо можливо, це означає, що інтелект мережі буде захищений від крадіжки, дозволяючи учасникам співпрацювати над конкретними проблемами, використовуючи свої моделі та дані, не розкриваючи вхідних даних.

Однак, що більш важливо, якщо ШІ гомоморфно зашифрований, то зовнішній світ сприймається ним як зашифрований. Human , яка контролює Secret ключ, може розблокувати окремі передбачення, зроблені штучним інтелектом, замість того, щоб випускати штучний інтелект у дику природу.

Знову ж таки, це лише три приклади з потенційно багатьох, у яких Крипто може відкрити нові варіанти використання ШІ.

Приклади мемів, які контролюють меми, та інституцій, які контролюють інституції, також свідчать про те, що системи ШІ можуть контролювати системи ШІ

Складання частин разом

Централізований ШІ страждає від окремих точок збою. Це не лише стисне складний плюралізм Human цінностей в ONE цільову функцію. Він також схильний до помилок, внутрішньої корупції та зовнішніх атак. Захищені багатополярні системи, створені спільнотою безпеки та криптографії, з іншого боку, мають багато перспектив; вони підтримують плюралізм цінностей, можуть забезпечувати червону команду, стримування та противаги та є антикрихкими.

Є також багато недоліків криптографічних систем. Наприклад, криптографія потребує прогресу в децентралізованому сховищі даних, функціональному шифруванні, змагальному тестуванні та обчислювальних вузьких місцях, які роблять ці підходи все ще непомірно повільними та дорогими. Крім того, децентралізовані системи також менш стабільні, ніж централізовані системи, і сприйнятливі до зловмисників, які завжди мають стимул вступити в змову або іншим чином повалити систему, щоб домінувати над нею.

Тим не менш, враховуючи швидку швидкість штучного інтелекту та відносну відсутність людей, які займаються безпекою та криптографією в області штучного інтелекту, можливо, ще не надто рано подумати про те, чи можете ви зробити суттєвий внесок у розвиток штучного інтелекту, приносячи деякі переваги, про які тут йдеться.

Обіцянка безпечного багатополярного ШІ була добре підсумовано Ерік Дрекслер, піонер Технології , ще в 1986 році: «Приклади мемів, які контролюють меми, і інституцій, які контролюють інституції, також свідчать про те, що системи ШІ можуть контролювати системи ШІ».

Note: The views expressed in this column are those of the author and do not necessarily reflect those of CoinDesk, Inc. or its owners and affiliates.

Allison Duettmann

Еллісон Дуетманн є президентом і генеральним директором Foresight Institute. Вона керує інтелектуальним співробітництвом, молекулярними машинами, біотехнологіями та розширенням охорони здоров’я, нейротехнологіями та космічними програмами, стипендіями, призами та деревами технологій і ділиться цією роботою з громадськістю. Вона заснувала Existentialhope.com, була співредактором Superintelligence: Coordination & Strategy, співавтором Gaming the Future та співініціатором The Longevity Prize. Вона консультує компанії та організації, такі як Consortium for Space Health, і є членом виконавчого комітету Biomarker Consortium. Вона отримала ступінь магістра з філософії та державної Політика в Лондонській школі економіки, зосереджуючись на безпеці ШІ.

Allison Duettmann