- Повернутися до менюЦіни
- Повернутися до менюдослідження
- Повернутися до менюКонсенсус
- Повернутися до менюСпонсорський матеріал
- Повернутися до меню
- Повернутися до меню
- Повернутися до меню
- Повернутися до менюВебінари та Заходи
Прискорювачі штучного інтелекту пожертвували б людством заради симулякра — доки вони контролюють
Бустеризм ШІ та пов’язані з ним «довгострокові» ідеї можуть становити загрозу вашій Політика конфіденційності, власності та громадянським правам.
Люди завжди дивно ставилися до своїх Технології. Незалежно від того, чи то вогонь, чи письмове слово, чи штучний інтелект (ШІ), речі, які ми створюємо, щоб розширити свої можливості та розширити себе, часто здаються дивними зовнішніми силами, їхній трансформаційний вплив на наше життя та розум настільки ж глибокий і непередбачуваний, як вплив примхливих богів.
Ця стаття є уривком із The Node, щоденного огляду найважливіших історій у сфері блокчейну та Крипто CoinDesk. Ви можете підписатися, щоб отримати повну версію інформаційний бюлетень тут.
У 21 столітті є багато технологій, до впливу яких ми ще T звикли, як-от соціальні мережі. Інші, зокрема штучний інтелект і Криптовалюта, ще не повністю розвинені, але матимуть великий вплив на наше життя. Це включає формування нашого способу уявлення про світ: групи Human часто знаходяться під глибоким впливом вбудованих упереджень технологій, на які вони покладаються. (Ці стосунки між людством і його Технології були головною темою моєї академічної кар’єри до того, як я звернувся до журналістики.)
Випадки штучного інтелекту та Криптовалюта особливо захоплюють. Кожна з їхніх відповідних технологічних основ відображає набагато ширші уявлення про суспільство та навіть індивідуальну мораль. Ці два набори ідей також здаються в багатьох відношеннях діаметрально і принципово протилежними. З ONE боку, у вас є Крипто , часто різновиди лібертаріанців; з іншого – техноутопізм прискорювачів ШІ.
CORE принципом технології блокчейн є універсальність. Справа в тому, що кожен і будь-де може отримати доступ до цих інструментів і послуг, незалежно від того, погоджується це з владою чи ні. Наслідком цього принципу є дуже висока цінність Політика конфіденційності . Ці цінності призводять до значної кількості хаосу, але основний етос включає віру в те, що такий хаос є продуктивним або, принаймні, необхідним компромісом для процвітання Human .
Спільноти штучного інтелекту мають тенденцію до набагато іншого погляду на світ, також тісно пов’язаного зі структурою Технології. Основна роль штучного інтелекту полягає в тому, щоб спостерігати за поведінкою Human , а потім копіювати її з усіма нюансами. Це має багато наслідків, але основні з них включають остаточне припинення Human праці, технічну централізацію та упередження до повної прозорості даних.
Вони можуть здаватися нешкідливими або навіть позитивними. Але, прямо кажучи, наслідки технічних упереджень штучного інтелекту здаються досить похмурими для людства. Це робить ще більш захоплюючим спостерігати, як прискорювачі штучного інтелекту не просто приймають ці похмурі наслідки, а й невтомно працюють, щоб зробити їх реальними.
Ти більше T Human
Найбільш яскраво зловмисний прояв світогляду ШІ може виглядати не так. Worldcoin — це, здається, Криптовалюта проект, призначений для розподілу «універсального базового доходу» (UBI) в обмін на збирання надзвичайно чутливих біометричних даних з уразливих верств населення.
Але незважаючи на те, що на поверхні це «Крипто», Worldcoin насправді є проектом ШІ по суті. Це дітище Сема Альтмана, також засновника OpenAI. Його мета ідентифікувати людей і надати їм UBI заснована на майбутньому, в якому штучний інтелект візьме на себе всі Human роботи, вимагаючи централізованого перерозподілу багатства, створеного ШІ.
Дивіться також: Чому всі сердяться на Worldcoin Сема Альтмана (2021)
ONE із наслідків цього, який часто забувають, є те, що в цьому майбутньому такі люди, як Сем Альтман, будуть тими, хто все ще матиме значущу роботу та особисту свободу, оскільки вони керуватимуть машинами. Нам іншим, здається, доведеться існувати на Worldcoin.
Якщо це звучить дегуманно, спробуйте це на розмір: права Human для машин. У есе, опублікованому в The Hill 23 березня, співавтор Джейсі Різ Антіс заявив: «Нам потрібен рух за права ШІ». Як багато хто зазначав, це підозріло з філософської точки зору, оскільки немає переконливих доказів того, що штучний інтелект матиме або може мати будь-який суб’єктивний досвід або знати про страждання у спосіб, який вимагав би захисту.
ШІ-гіпестери доклали чимало зусиль, щоб затьмарити це питання суб’єктивної свідомості. Вони спливли набір зловмисно оманливих аргументів що штучний інтелект – включаючи, абсурдно, існуючі на даний момент мовні моделі – володіють певною формою свідомості або суб’єктивним досвідом перебування у світі. Свідомість та її походження є одними з найбільших таємниць існування на всі часи, але прихильники штучного інтелекту часто, здається, мають поверхневе розуміння цього питання або навіть того, що означає слово «свідомість».
Антіс, співзасновник так званого Sentience Institute, повторює у своєму есе основну логічну помилку багатьох помилкових досліджень штучного інтелекту: некритичне прийняття видимих результатів штучного інтелекту як пряму ознаку якогось внутрішнього суб’єктивного досвіду.
Якими б безглуздими не були заклики до захисту прав штучного інтелекту, ми все ще T торкнулися найдальших країв помилкової ажіотажної реклами штучного інтелекту. Наприкінці березня не менша фігура, ніж починаючий філософ-король Елейзер Юдковський, запропонував своїм послідовникам бути готовими до здійснювати насильницькі атаки на ферми серверів щоб уповільнити або зупинити просування ШІ.
Хтось може бути здивований тим, що я включив Юдковського до сил ШІ. Юдковський є лідером руху «Безпека ШІ», який виріс із його «раціоналістичного» блогу LessWrong, і стверджує, що ШІ потенційно може захопити світ і знищити людство. Справедливість цих ідей є предметом дискусій, але тут важливо те, що Юдковісі та його так звані раціоналісти T виступають проти штучного інтелекту. Прихильники Юдковського вважають, що штучний інтелект може створити утопію (знову ж таки, утопію, за яку вони б відповідали), але він несе серйозні ризики. По суті, вони прихильники ШІ, одягнені в одяг скептиків.
Це контрастує з більш справжнім і обґрунтованим скептицизмом діячів, зокрема Тімніта Гебру та Кеті О’Ніл. Ці дослідники, які майже не мають прихильників Юдковського, T турбуються про апокаліпсис у далекому майбутньому. Їхнє занепокоєння пов’язане з явною та наявною небезпекою: алгоритми, навчені поведінці Human, також відтворюватимуть недоліки цієї поведінки, такі як расова та інші форми дискримінації. Гебру був сумно відомий звільнений з Google за сміливість вказати проблеми з ШІ які загрожували бізнес-моделі Google.
Ви можете помітити схожість тут з іншими ідеологічними рухами, зокрема спорідненими ідеями «ефективний альтруїзм» і «довгостроковість». Еміль П. Торрес, філософ з Університету Лейбніца в Німеччині, є одним із тих, хто описує глибоку приналежність і спорідненість між прихильниками Юдковського, «трансгуманістами», ефективними альтруїстами та довготерміністами під акронімом ТЕСКРЕАЛ. Як лише ONE крихітний приклад цього вирівнювання, FTX, шахрайська Крипто біржа, укомплектована в основному ефективними альтруїстами та керована людиною, яка прикидався ONE, зробив великі пожертви (використовуючи нібито вкрадені кошти) на Безпека ШІ групи, а також інші довгострокові причини.
Цей пакет світоглядів, стверджує Торрес, зводиться до «колонізувати, підкоряти, експлуатувати та максимізувати.” Зокрема, у Worldcoin ми бачимо попередній образ непримиренного авторитаризму світу, де машини нескінченно копіюють Human поведінку та замінюють її – за винятком жменьки людей, які тримають руки на румплі.
Дивіться також: Перетин AI та Крипто | Переосмислені гроші
Тут можна сказати багато іншого, але для тих, хто працює в Крипто , ONE декларація з осі TESCREAL заслуговує на особливу увагу. У зовсім нещодавньому есе Юдковський заявив, що майбутня загроза небезпечного штучного інтелекту може вимагати «дуже сильного глобального моніторингу, в тому числі зламати все шифрування, щоб запобігти ворожій поведінці AGI».
Іншими словами, ці люди повинні відмовитися від Політика конфіденційності та автономії людей у сьогоденні на користь створення умов для безпечного та постійного розширення штучного інтелекту в майбутньому. Я залишаю вам вирішувати, чи це майбутнє чи сьогодення, якого будь-хто хоче.
Remarque : Les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et affiliés.
David Z. Morris
Девід З. Морріс був головним оглядачем Insights CoinDesk. Він писав про Крипто з 2013 року для таких торгових точок, як Fortune, Slate і Aeon. Він є автором книги «Bitcoin — це магія», знайомства з соціальною динамікою біткойна. Він колишній академічний соціолог Технології зі ступенем доктора філософії з медіазнавства в Університеті Айови. Він володіє Bitcoin, Ethereum, Solana та невеликими обсягами інших Крипто .
