- Back to menu
- Back to menuMga presyo
- Back to menuPananaliksik
- Back to menuPinagkasunduan
- Back to menu
- Back to menu
- Back to menu
- Back to menu
- Back to menuMga Webinars at Events
Maaari Nating Magtiwala sa Mga Ahente ng AI?
Ang desentralisadong AI ay nagbibigay sa amin ng landas sa pagtitiwala sa mga ahente na malapit nang mag-populate sa aming mga digital na buhay, sabi ni Marko Stokic, Pinuno ng AI sa Oasis.
Ang kilalang Harvard psychologist na si BF Skinner ay minsang nag-opined na ang "tunay na problema ay hindi kung iniisip ng mga makina ngunit kung ginagawa ng mga tao." Ang nakakatawang obserbasyon na ito ay binibigyang-diin ang minsang napakahalagang punto: na ang ating tiwala sa Technology ay nakasalalay sa paghatol ng Human . Hindi machine intelligence ang dapat nating alalahanin, ngunit ang karunungan at responsibilidad ng mga kumokontrol dito. O hindi bababa sa iyon ay ang kaso.
Sa software tulad ng ChatGPT na ngayon ay isang mahalagang bahagi ng maraming buhay sa trabaho, ang pananaw ni Skinner ay tila halos kakaiba. Ang napakalaking pagtaas ng mga ahente ng AI - mga entity ng software na may kakayahang makita ang kanilang kapaligiran at gumawa ng mga aksyon upang makamit ang mga partikular na layunin - ay pangunahing nagbago sa paradigm. Ang mga digital assistant na ito, na isinilang mula sa consumer AI boom noong unang bahagi ng 2020s, ay tumatagos na ngayon sa ating mga digital na buhay, humahawak ng mga gawain mula sa pag-iskedyul ng mga appointment hanggang sa paggawa ng mga desisyon sa pamumuhunan.
Ano ang mga ahente ng AI?
Malaki ang pagkakaiba ng mga ahente ng AI mula sa mga malalaking modelo ng wika (LLM) tulad ng ChatGPT sa kanilang kapasidad para sa autonomous na pagkilos. Habang ang mga LLM ay pangunahing nagpoproseso at bumubuo ng text, ang mga ahente ng AI ay idinisenyo upang makita ang kanilang kapaligiran, gumawa ng mga desisyon, at gumawa ng mga aksyon upang makamit ang mga partikular na layunin. Pinagsasama ng mga ahenteng ito ang iba't ibang teknolohiya ng AI, kabilang ang natural na pagpoproseso ng wika, computer vision, at reinforcement learning, na nagpapahintulot sa kanila na umangkop at Learn mula sa kanilang mga karanasan.
Ngunit habang dumarami at umuulit ang mga ahente ng AI, gayundin ang isang nakakatakot na pagkabalisa. Maaari ba tayong tunay na magtiwala sa mga digital na entity na ito? Ang tanong ay malayo sa akademiko. Gumagana ang mga ahente ng AI sa mga kumplikadong kapaligiran, na gumagawa ng mga desisyon batay sa malawak na mga dataset at masalimuot na algorithm na kahit ang kanilang mga tagalikha ay nahihirapang lubos na maunawaan. Ang likas na opacity na ito ay nagbubunga ng kawalan ng tiwala. Kapag nagrekomenda ang isang ahente ng AI ng medikal na paggamot o hinuhulaan ang mga uso sa merkado, paano tayo makatitiyak sa pangangatwiran sa likod ng mga pagpipilian nito?
Ang mga kahihinatnan ng maling pagtitiwala sa mga ahente ng AI ay maaaring maging kakila-kilabot. Isipin ang isang financial advisor na pinapagana ng AI na hindi sinasadyang nag-crash sa mga Markets dahil sa isang maling kahulugan ng data point, o isang healthcare AI na nagrerekomenda ng mga maling paggamot batay sa biased data ng pagsasanay. Ang potensyal para sa pinsala ay hindi limitado sa mga indibidwal na sektor; habang ang mga ahente ng AI ay nagiging higit na isinama sa ating pang-araw-araw na buhay, ang kanilang impluwensya ay lumalaki nang husto. Ang isang maling hakbang ay maaaring magkagulo sa lipunan, na makakaapekto sa lahat mula sa personal Privacy hanggang sa pandaigdigang ekonomiya.
Sa gitna ng kakulangan sa tiwala na ito ay namamalagi ang isang pangunahing isyu: sentralisasyon. Ang pagbuo at pag-deploy ng mga modelo ng AI ay higit sa lahat ay ang saklaw ng isang dakot ng mga tech na higante. Ang mga sentralisadong modelong AI na ito ay gumagana bilang mga black box, ang kanilang mga proseso sa paggawa ng desisyon ay natatakpan mula sa pampublikong pagsisiyasat. Dahil sa kawalan ng transparency na ito, halos imposibleng pagkatiwalaan ang kanilang mga desisyon sa mga operasyong may mataas na stake. Paano tayo makakaasa sa isang ahente ng AI upang gumawa ng mga kritikal na pagpipilian kapag hindi natin maintindihan o ma-verify ang pangangatwiran nito?
Desentralisasyon bilang sagot
Gayunpaman, mayroong isang solusyon sa mga alalahaning ito: desentralisadong AI. Isang paradigm na nag-aalok ng landas patungo sa mas transparent at mapagkakatiwalaang mga ahente ng AI. Ginagamit ng diskarteng ito ang mga lakas ng Technology ng blockchain at iba pang mga desentralisadong sistema upang lumikha ng mga modelo ng AI na hindi lamang makapangyarihan ngunit may pananagutan din.
Ang mga tool para sa pagbuo ng tiwala sa mga ahente ng AI ay umiiral na. Maaaring paganahin ng mga Blockchain ang nabe-verify na pagkalkula, na tinitiyak na ang mga aksyon ng AI ay naa-audit at nasusubaybayan. Ang bawat desisyon na gagawin ng isang ahente ng AI ay maaaring itala sa isang pampublikong ledger, na nagbibigay-daan para sa hindi pa naganap na transparency. Kasabay nito, mapoprotektahan ng mga advanced na cryptographic technique tulad ng pinagkakatiwalaang execution environment machine learning (TeeML) ang sensitibong data at mapanatili ang integridad ng modelo, na nakakamit ang parehong transparency at Privacy.
Habang ang mga ahente ng AI ay lalong nagpapatakbo sa tabi o direkta sa mga pampublikong blockchain, nagiging mahalaga ang konsepto ng pagpapatunay. Maaaring mahirapan ang mga tradisyonal na modelo ng AI na patunayan ang integridad ng kanilang mga operasyon, ngunit ang mga ahente ng AI na nakabase sa blockchain ay maaaring magbigay ng mga cryptographic na garantiya ng kanilang pag-uugali. Ang pagpapatunay na ito ay hindi lamang isang teknikal na kagandahan; ito ay isang pangunahing kinakailangan para sa pagtitiwala sa mga high-stakes na kapaligiran.
Ang mga kumpidensyal na diskarte sa pag-compute, partikular na ang mga pinagkakatiwalaang execution environment (TEE), ay nag-aalok ng mahalagang layer ng kasiguruhan. Ang mga TEE ay nagbibigay ng isang secure na enclave kung saan maaaring mangyari ang AI computations, na nakahiwalay sa potensyal na interference. Tinitiyak ng Technology ito na kahit na ang mga operator ng AI system ay hindi maaaring pakialaman o maniktik sa proseso ng paggawa ng desisyon ng ahente, na lalong nagpapatibay ng tiwala.
Ang mga frameworks tulad ng Runtime Off-chain Logic (ROFL) ng Oasis Network ay kumakatawan sa pinaka-cutting edge ng diskarteng ito, na nagbibigay-daan sa tuluy-tuloy na pagsasama ng nabe-verify na AI computation na may on-chain auditability at transparency. Ang ganitong mga inobasyon ay nagpapalawak ng mga posibilidad para sa AI-driven na mga application habang pinapanatili ang pinakamataas na pamantayan ng tiwala at transparency.
Patungo sa isang mapagkakatiwalaang kinabukasan ng AI
Ang landas patungo sa mapagkakatiwalaang mga ahente ng AI ay hindi walang mga hamon. Nananatili ang mga teknikal na hadlang, at ang malawakang paggamit ng mga desentralisadong AI system ay mangangailangan ng pagbabago sa parehong mga kasanayan sa industriya at pampublikong pag-unawa. Gayunpaman, ang mga potensyal na gantimpala ay napakalaki. Isipin ang isang mundo kung saan ang mga ahente ng AI ay gumagawa ng mga kritikal na desisyon nang may ganap na transparency, kung saan ang kanilang mga aksyon ay maaaring ma-verify at ma-audit ng sinuman, at kung saan ang kapangyarihan ng artificial intelligence ay ipinamamahagi sa halip na nakatutok sa mga kamay ng ilang mga korporasyon.
Mayroon ding pagkakataon na i-unlock ang makabuluhang paglago ng ekonomiya, masyadong. ONE 2023 pag-aaral nalaman mula sa Beijing na ang 1% na pagtaas sa AI penetration ay humahantong sa isang 14.2% na pagtaas sa total factor productivity (TFP). Gayunpaman, karamihan sa mga pag-aaral sa produktibidad ng AI ay nakatuon sa mga pangkalahatang LLM, hindi sa mga ahente ng AI. Ang mga autonomous na ahente ng AI na may kakayahang magsagawa ng maraming gawain nang nakapag-iisa ay maaaring potensyal na magbunga ng mas malaking produktibidad. Ang mga mapagkakatiwalaan at naa-audit na ahente ng AI ay malamang na maging mas epektibo.
Marahil ay oras na para i-update ang sikat na quote ni Skinner. Ang tunay na problema ay hindi na kung iniisip ng mga makina, kundi kung mapagkakatiwalaan ba natin ang kanilang mga iniisip. Sa desentralisadong AI at blockchain, mayroon kaming mga tool para mabuo ang tiwala na iyon. Ang tanong ngayon ay kung mayroon tayong karunungan na gamitin ang mga ito.
Tandaan: Ang mga pananaw na ipinahayag sa column na ito ay sa may-akda at hindi kinakailangang sumasalamin sa mga pananaw ng CoinDesk, Inc. o sa mga may-ari at kaakibat nito.
Note: The views expressed in this column are those of the author and do not necessarily reflect those of CoinDesk, Inc. or its owners and affiliates.
Marko Stokic
Si Marko Stokic ay ang Pinuno ng AI sa Oasis Protocol Foundation, kung saan nakikipagtulungan sa isang pangkat na nakatuon sa pagbuo ng mga makabagong AI application na isinama sa Technology ng blockchain . Sa background ng negosyo, ang interes ni Marko sa Crypto ay napukaw ng Bitcoin noong 2017 at lumalim sa pamamagitan ng kanyang mga karanasan noong 2018 market crash. Nagtapos siya ng master's degree at nakakuha ng kadalubhasaan sa venture capital, na tumutok sa mga enterprise AI startup bago lumipat sa isang desentralisadong pagsisimula ng pagkakakilanlan, kung saan nakabuo siya ng mga solusyon sa pagpapanatili ng privacy. Sa Oasis, pinagsanib niya ang madiskarteng pananaw sa teknikal na kaalaman para isulong ang desentralisadong AI at kumpidensyal na computing, pagtuturo sa merkado sa mga natatanging kakayahan ng Oasis at pagpapatibay ng mga partnership na nagbibigay-kapangyarihan sa mga developer. Bilang isang nakakaengganyong pampublikong tagapagsalita, nagbabahagi si Marko ng mga insight sa hinaharap ng AI, Privacy, at seguridad sa mga Events sa industriya, na nagpoposisyon sa Oasis bilang nangunguna sa responsableng AI innovation.
