Atbildot uz AI straujo pieaugumu
Kad es augu, mākslīgais intelekts (AI) dzīvoja zinātniskās fantastikas pasaulē. Atceros, kā biju sajūsmā par Dzelzs Vīra AI sistēmu Jarvis, kas palīdzēja cīnīties pret citplanētiešiem, bet smējos par stulbajiem NPC (ne-spēlējamajiem tēliem) videospēlēs un jokoju ar tēvu par to, cik skarbi un necilvēcīgi virtuālie asistenti, piemēram, Siri, šķita. “Īstos” AI varēja atrast tikai tādos filmu tēlos kā Zvaigžņu karu C-3PO un līdzīgi, un par tiem galvenokārt diskutēja tādi nūģi kā es. Vairāk joks nekā realitāte, AI nebija tuvu politiskajām dienaskārtībām. Bet šodien, kā 22 gadus vecs nesen absolvējis koledžu, es redzu AI revolūciju notiekam reālajā laikā – un esmu biedēts, ka pasaules līderi netur soli.
Reaģējot uz AI straujo pieaugumu
Mainīguma ātrums ir apreibinošs. Ja šodienas šaurie AI rīki var pastiprināt akadēmisko negodīgumu, seksuālo uzmākšanos, darba tirgus traucējumus un atkarību veicinošas attiecības, iedomājieties tehnoloģijas ietekmi, kad tā pieaug pieejamībā un spēkā nākamajos gados. Mans bailes ir tādas, ka šodienas izaicinājumi ir tikai neliels priekšskatījums AI vadītajai turbulences periodam, kas noteiks Gen Z nākotni.
Šīs bailes mani pamudināja pievienoties – un palīdzēt vadīt – Encode Justice, jauniešu advokātu kustību, kas koncentrējas uz AI padarīšanu drošāku un taisnīgāku. Mūsu organizācija ietver simtiem jauniešu visā pasaulē, kuri bieži jūtas it kā mēs kliegtu tukšumā par AI riskiem – pat tad, kad tehnoloģiju titāni un konkurences orientēti politiķi virza steidzamu, neregulētu izvietošanu. Ir grūti izteikt vilšanos, redzot svarīgus likumdevējus kā Senāta vairākuma līderi Chuck Schumer pastāvīgi atliekot regulējumu, kā viņš darīja pagājušajā nedēļā.
Mēs esam pabeiguši gaidīt malā. Ceturtdien Encode Justice uzsāka AI 2030, plašu aicinājumu globālajiem līderiem prioritizēt AI pārvaldību šajā desmitgadē. Tajā ir izklāstīti konkrēti soļi, kurus politikas veidotājiem un korporācijām vajadzētu veikt līdz 2030. gadam, lai palīdzētu aizsargāt mūsu paaudzes dzīves, tiesības un iztikas līdzekļus, kamēr AI turpina pieaugt.
Mūsu ietvars ir atbalstīts ar spēcīgiem sabiedrotajiem, sākot no bijušiem pasaules līderiem kā Īrijas prezidente Mary Robinson līdz pilsonisko tiesību pionieriem kā Maya Wiley, kā arī vairāk nekā 15 000 jauniešiem studentu organizācijās visā pasaulē. Mēs cenšamies iekļaut jauniešu balsis AI pārvaldības diskusijās, kas mūs nesamērīgi ietekmēs – nemaz nerunājot par mūsu bērniem.
Pašlaik globālajai politikas veidošanas kopienai atpaliek no AI riskiem. Pagājušajā decembrī tikai 34 valstis no vairāk nekā 190 ir nacionāla AI stratēģija. Amerikas Savienotajām Valstīm bija sākums ar prezidenta Baidena Izpildrakstu par AI, bet tam trūkst zobu. Pāri Atlantijas okeānam ES AI Akts stāsies spēkā ne agrāk kā 2026. gadā.
Tikmēr AI spējas turpinās attīstīties eksponenciālajos tempos.
Ne viss no tā ir slikts. AI rada milzīgu potenciālu. Ir pierādīts, ka tas uzlabo veselības aprūpes diagnozes, revolucionizē atjaunojamu enerģijas tehnoloģiju un palīdz personalizēt mācību procesu. Tas var radikāli veicināt progresu cilvēcei. AI modeļi jau tiek apmācīti prognozēt slimību uzliesmojumus, sniegt reāllaika garīgās veselības atbalstu un samazināt oglekļa emisijas. Šie jauninājumi veido pamatu manas paaudzes piesardzīgajam optimizmam. Tomēr pilnībā atslēgt AI priekšrocības prasa būt proaktīviem risku mazināšanai. Tikai attīstot AI atbildīgi un taisnīgi, mēs nodrošināsim, ka tā priekšrocības tiek dalītas.
Kad algoritmi kļūst arvien cilvēciski līdzvērtīgi, manas paaudzes veidojošos gadus var ietekmēt parasociālas AI attiecības. Iedomājieties bērnus, kas aug ar vienmēr “laimīgu” Alexa līdzvērtīgu draugu, kas var imitēt empātiju – un zina, kuri joki jums patīk – vienlaikus būdams pieejams jums 24/7. Kā tas var ietekmēt mūsu jaunatnes sociālo attīstību vai spēju veidot reālas cilvēciskas saites?
AI ilgtermiņa perspektīvā
Ilgi termiņa ekonomiskie apsvērumi ir biedējoši. McKinsey lēš, ka līdz 2030. gadam automatizācijas dēļ var tikt izstumti līdz pat 800 miljoniem cilvēku visā pasaulē un viņiem būs jāmeklē jauni darbi. AI jau var rakstīt kodu, diagnozēt sarežģītas slimības, un analizēt juridiskos dokumentus ātrāk un lētak nekā cilvēki var. (Es palīdzēju kodificēt AI rīku darbam ar pēdējo koledžas laikos.)
Bez pienācīgiem drošinotiem pasakumiem šie traucējumi nesamērīgi ietekmēs jau marginalizētas grupas. Izcila MIT pētijuma pirms dažiem gadiem paradija, ka kopš 1980. gada vairak neka puse pieaugoša algu atškiribas starp augstako un zemaako izglitibu limeni darbiniekiem var attiecinat uz automatizaciju. Jaunie darba ņemeji globaalaa dienvidaa it sevišķi – kuru ekonomika ir vairak uzņeemaiga pret AI traucéjumiem – var saskarties gandríz neuzvarami škeŗšli ekonomiskai mobilitatei.
Mums efektivi tiek prasits uzticeties lielam tehnologiju uzņeemumiem piemeram OpenAI un Google, ka tie pareizi pašregulésies kamér izvieto savus produktus ar pasaules mainošu potencialu un maz vai nav párredzamibas. Lai sarežģitu lietas, tehnologiju kompanijas bieži saka pareizo lietu sabiedribas acu priekša. OpenAI izpilddirektors Sam Altman slaveni liecinaja ASV Kongresa prieksa lúdzot regulaciju. Privati OpenAI ieguldija ievérojamu púli dilutet regulacijas centienus ES AI Aktá.
Ar miljardiem doláru uz spéles konkurences industrijas dinamika var radit perversus impulsus – tadus kas definet sociala medija revoluciju – lai uzvarétu AI sacensibás par jebkuru cenu. Uzticiba korporativajam altruismam ir bezatbildiga azartspéle ar visu musu kolektivo nakotni.
Kritiki ir apgalvojuši, ka aicinajumi uz regulaciju vienkarsi rezultes ar regulacijas sagustisanu, kur uznémums ietekme noteikumus savas intereses labad. Šis uztraukums ir saprotams, bet patiesiba nav nekas legitims alternativa lai nodrošinatu drošus AI sistémas. Tehnologija attistás tik strauji ka tradicionalie regulacijas procesi nespej turét soli.
Reguléjot AI
Tad kur més ejam no šejienes? Lai saktu mums ir nepieciesamas labakas valdibas regulacijas un skaidras sarkanás linijas ap AI attistibu un izvietošanu. Més esam nogurusi stradajot pie likuma Kalifornijas likumdeveja ar valsts senatoru Scott Wiener ko mes lídzzinojam – SB 1047 – kas ieviestu šadas aizsardzibas augstaka riska AI sistémám.
Tomér AI 2030 izklástíta plašaka ceļa karte:
Més aicinam neatkarigus auditus kas testetu diskriminejošo ietekmi no AI sistémám. Més pieprasam tiesisku atbildibu pilsoniem meklét atlidi ja AI párkápj viņu tiesibas. Més mudinam kompanijas attistit tehnologiju kas skaidri marke AI raditu saturu un apriko lietotajus ar speju atteikties no mijiedarbibas ar AI sistémám. Més prasam pastiprinatas aizsardzibas personigajiem datiem un ierobéžojumus diskriminejošo modelu izvietošanai. Starptautiska limeni més aicinam pasaules liderus sanákt kopá un rakstit ligumus lai aizliegtu letalus autonomos ieročus un palielinatu finanséjumu tehniskai AI drošibas petijumam.
Més atzistam ka šie ir kompleksi jautajumi. AI 2030 tika izstradats pár menesiem petijumu diskusiju un pastaviga konsultacija ar pilsonisko sabiedribu lideriem datortehnikas zinatniekiem un politikas veidotajiem. Sarunas més bieži dzirdejam ka jaunie aktívisti ir naivi pieprasa ambiciozu rícibu ka mums vajadzetu apmierinaties ar inkrementalám politikas izmainám.
Més noraidam šo naratívu. Inkrementalisms ir neizturams pret eksponencialiem termiņiem. Koncentréjoties uz šauriem AI izaicinajumiem nekas netiek darits par robežmodeliem kas virzas uz priekšu strauji. Kas notiks kad AI var perfekti manipulet ar kritiskiem video materiali imitét musus politikus autore svarigu likumdošanu ar aizspriedumiem vai vadit militáros triecienus? Vai kad tas saks sasniegt baisakas spejas loģika strategija un emocionala manipulacija?
Més runajam par gadiem un menesiem nevis desmitgadiem lai sasniegtu šos merkus.
Gen Z uzauga ar sociala medija algoritmiem smalki nudiena pašnávibu visneaizsargatakiem no mums un klimata katastrofám posta musu planétu. Més personigi zinám bístamus “iet strauji un salauzt lietas” lai atstat tehnologijas prieksa no piemerami noteikumiem. AI bus visas šis lietas bet potenciali katastrofalaká merogá. Més to dabut pareizi.
Lai to izdaritu pasaules lideriem jánostájas vienkárši reagét uz skandaliem pec bojájuma ir izdarits un jábút proaktívi risinát AI ilgtermiņa sekás. Šie izaicinajumi definés 21.gadsimtu – íslaicigi risinajumi nestradas.
Kritiski mums ir nepieciesama globala sadarbiba lai atbilstetu draudiem kas nav ierobežoti ar valsts robežám. Autokratijas piemeram Kina jau ir sakusi izmantot AI pilsoniskai uzraudzibai un socialai kontrolei. Šies pašas rezimi cenšás izmantot AI lai pastiprinatu tiešsaistes cenzuru un diskriminetu minoritates. Viņi (negaiditi) sak izmantot Amerikas Savienoto Valstu pašu vajas regulacijas savá labá un mudina musus bernus but vairak polarizetiem.
Pati labakais nodomis izstradataji var nejauši atbrivot katastrofalos bojajumus.
Lai uzgleznotu vienkáršu domu eksperimentu: Apsveriet Google DeepMind AlphaGo AI sistemu kas ir apmacits spelet Go kompleksa strategijas spelé. Kad AlphaGo sacentás pret cilveka čempioni tas veica gajienus kas nekad agrak nav redzeti spelés 4000 gadu