
Spąstai, kuriuos antropas sukūrė sau
Penktadienio popietę, kai tik prasidėjo šis interviu, mano kompiuterio ekrane mirgėjo naujienų perspėjimas: Trumpo administracija nutraukia ryšius su Anthropic, San Francisko AI įmone, kurią 2021 m. įkūrė Dario Amodei. Gynybos sekretorius Pete’as Hegsethas netrukus pasinaudojo nacionalinio saugumo įstatymu, kad bendrovė įtrauktų į juodąjį sąrašą nuo verslo su Pentagonu po to, kai Amodei atsisakė leisti Anthropic technologijas naudoti masiniam JAV piliečių stebėjimui arba autonominiams ginkluotiems bepiločiams orlaiviams, galintiems atrinkti ir nužudyti taikinius be žmogaus indėlio.
Tai buvo žandikaulį slegianti įvykių seka. „Anthropic“ gali prarasti iki 200 mln. (Nuo to laiko „Anthropic“ pareiškė, kad teisme užginčys Pentagoną.)
Maxas Tegmarkas didžiąją dešimtmečio dalį perspėjo, kad lenktynės kuriant vis galingesnes AI sistemas lenkia pasaulio galimybes jas valdyti. MIT fizikas 2014 m. įkūrė Gyvenimo ateities institutą, o 2023 m. padėjo surengti atvirą laišką, kurį galiausiai pasirašė daugiau nei 33 000 žmonių, įskaitant Eloną Muską, raginantį sustabdyti pažangų AI kūrimą.
Jo požiūris į antropinę krizę yra negailestingas: įmonė, kaip ir jos konkurentai, pasėjo savo keblios padėties sėklą. Tegmarko argumentas prasideda ne nuo Pentagono, o su sprendimu, priimtu prieš daugelį metų – pasirinkimu, kuris buvo bendras visoje pramonėje, priešintis reguliavimui. Anthropic, OpenAI, Google DeepMind ir kiti jau seniai žada valdyti save atsakingai. Šią savaitę Anthropic netgi atsisakė pagrindinio savo saugumo įsipareigojimo principo – pažado neišleisti vis galingesnių dirbtinio intelekto sistemų, kol bendrovė neįsitikins, kad jos nepadarys žalos.
Dabar, kai nėra taisyklių, nėra daug ką apsaugoti šiuos žaidėjus, sako Tegmarkas. Štai daugiau iš to interviu, redaguota siekiant ilgumo ir aiškumo. Visą pokalbį galite išgirsti šią ateinančią savaitę „TechCrunch“ „StrictlyVC Download“ podcast’e.
Kai ką tik pamatėte šią naujieną apie Anthropic, kokia buvo jūsų pirmoji reakcija?
Kelias į pragarą grįstas gerais ketinimais. Taip įdomu prisiminti prieš dešimtmetį, kai žmonės taip jaudinosi, kaip sukursime dirbtinį intelektą, kad išgydytume vėžį, padidintume gerovę Amerikoje ir sustiprintume Ameriką. Ir štai dabar JAV vyriausybė pyksta ant šios bendrovės, kad ji nenori, kad dirbtinis intelektas būtų naudojamas vietiniam masiniam amerikiečių stebėjimui, taip pat nenori turėti robotų žudikų, galinčių savarankiškai – be jokio žmogaus indėlio – nuspręsti, kas bus nužudytas.
Techcrunch renginys
San Franciskas, Kalifornija
|
2026 m. spalio 13-15 d
„Anthropic“ visą savo tapatybę iškėlė į saugą pirmąją AI įmonę, tačiau bendradarbiavo su gynybos ir žvalgybos agentūromis (datuojama mažiausiai 2024 m.). Ar manote, kad tai visiškai prieštaringa?
Tai prieštaringa. Jei galiu šiek tiek ciniškai pažvelgti į tai – taip, „Anthropic“ labai gerai reklamavo save kaip apie saugumą. Bet jei iš tikrųjų pažvelgsite į faktus, o ne į teiginius, pamatysite, kad Anthropic, OpenAI, Google DeepMind ir xAI daug kalbėjo apie tai, kaip jiems rūpi sauga. Nė vienas iš jų nepalaikė privalomo saugos reguliavimo, kaip tai darome kitose pramonės šakose. Ir visos keturios šios įmonės sulaužė savo pažadus. Pirmiausia turėjome „Google“ – šį didelį šūkį „Nebūk piktas“. Tada jie tai atsisakė. Tada jie atsisakė dar vieno ilgesnio įsipareigojimo, kuris iš esmės sakė, kad pažadėjo nedaryti žalos su AI. Jie to atsisakė, kad galėtų parduoti AI stebėjimui ir ginklams. OpenAI tiesiog išbraukė žodį sauga iš savo misijos. xAI uždarė visą savo saugos komandą. O dabar Anthropic šios savaitės pradžioje atsisakė savo svarbiausio saugumo įsipareigojimo – pažado neišleisti galingų AI sistemų, kol neįsitikins, kad jos nepadarys žalos.
Kaip įmonės, prisiėmusios tokius svarbius saugos įsipareigojimus, atsidūrė šiose pareigose?
Visos šios įmonės, ypač „OpenAI“ ir „Google DeepMind“, bet tam tikru mastu ir „Anthropic“, atkakliai lobizavo prieš AI reguliavimą sakydamos: „Tiesiog pasitikėk mumis, mes reguliuosime save“. Ir jie sėkmingai lobizavo. Taigi šiuo metu Amerikoje taikome mažiau AI sistemų reguliavimo nei sumuštinių. Žinote, jei nori atidaryti sumuštinių parduotuvę, o sveikatos inspektorius virtuvėje ras 15 žiurkių, jis neleis parduoti jokių sumuštinių, kol nesutvarkysi. Bet jei sakysite: „Nesijaudink, aš neparduodu sumuštinių, parduosiu dirbtinio intelekto merginas 11-mečiams ir jos praeityje buvo siejamos su savižudybėmis, o tada išleisiu tai, kas vadinama superintelektu, kuris gali nuversti JAV vyriausybę, bet turiu gerą nuojautą dėl mano, tiesiog neturiu pasakyti“, parduoti sumuštinius“.
Yra maisto saugos reglamentas ir nėra AI reglamento.
Ir jaučiu, kad dėl to kaltos visos šios įmonės. Nes jei jie būtų ėmę visus tuos pažadus, kuriuos davė ankščiau už tai, kad jie bus tokie saugūs ir geranoriški, ir būtų susibūrę, o paskui nuėję į vyriausybę ir sakę: „Priimkite mūsų savanoriškus įsipareigojimus ir paverskite juos JAV įstatymais, įpareigojančiais net ir pačius aplaidiausius konkurentus“, būtų taip nutikę. Vietoj to, mes esame visiškame reguliavimo vakuume. Ir mes žinome, kas atsitinka, kai yra visiška įmonių amnestija: gausite talidomidą, tabako įmonės stumia cigaretes vaikams, gausite asbesto, sukeliantį plaučių vėžį. Taigi savotiškai ironiška, kad jų pačių pasipriešinimas dėsniams, kuriuose sakoma, kas yra gerai ir kas netinka dirbtiniam intelektui, dabar grįžta ir kankina juos.
Šiuo metu nėra įstatymo, draudžiančio kurti AI, siekiant nužudyti amerikiečius, todėl vyriausybė gali tiesiog staiga to paprašyti. Jei pačios įmonės būtų anksčiau išėjusios ir sakiusios: „Mes norime šio įstatymo“, jos nebūtų šiame marinuotame agurklyje. Jie tikrai šovė sau į koją.
Kompanijų kontrargumentas visada yra lenktynės su Kinija – jei Amerikos bendrovės nedarys to ir to, tai padarys Pekinas. Ar toks argumentas galioja?
Išanalizuokime tai. Dažniausiai lobistai kalba apie dirbtinio intelekto įmones – jos dabar yra geriau finansuojamos ir daugiau nei lobistų iš iškastinio kuro pramonės, farmacijos pramonės ir karinio-pramoninio komplekso kartu paėmus – yra ta, kad kai kas nors siūlo kokį nors reguliavimą, jie sako: „Bet Kinija“. Taigi pažiūrėkime į tai. Kinija ruošiasi visiškai uždrausti dirbtinio intelekto merginoms. Ne tik amžiaus ribos – jie siekia uždrausti bet kokį antropomorfinį AI. Kodėl? Ne todėl, kad jie nori įtikti Amerikai, o todėl, kad mano, kad tai sujaukia Kinijos jaunimą ir daro Kiniją silpną. Akivaizdu, kad tai taip pat silpnina Amerikos jaunimą.
Ir kai žmonės sako, kad turime lenktyniauti, kad sukurtume superintelektą, kad galėtume laimėti prieš Kiniją – kai iš tikrųjų nežinome, kaip suvaldyti superintelektą, o numatytuoju atveju žmonija praranda Žemės kontrolę ateivių mašinoms – atspėkite, ką? Kinijos komunistų partija labai mėgsta kontrolę. Kas sveiko proto galvoja, kad Xi Jinpingas toleruos tam tikrą Kinijos dirbtinio intelekto įmonę, kuri stato tai, kas nuvers Kinijos vyriausybę? Jokiu būdu. Akivaizdu, kad tai tikrai blogai ir Amerikos vyriausybei, jei ją nuvers perversmas, kurį įvykdys pirmoji amerikiečių kompanija, kuri sukūrė superintelektą. Tai yra grėsmė nacionaliniam saugumui.
Tai įtikinantis kadravimas – superžvalgyba kaip grėsmė nacionaliniam saugumui, o ne turtas. Ar matote, kad toks požiūris įgauna populiarumą Vašingtone?
Manau, kad jei žmonės iš nacionalinio saugumo bendruomenės klausytų, kaip Dario Amodei apibūdina jo viziją – jis pasakė garsią kalbą, kurioje sako, kad netrukus duomenų centre atsidursime genijų šalyje – jie gali pradėti galvoti: „Palauk, ar Dario ką tik pavartojo žodį šalis? Galbūt turėčiau įtraukti tą genijų šalį į duomenų centrą į tą patį grėsmių sąrašą, kurį stebiu, nes tai skamba grėsmingai JAV vyriausybei. Ir manau, kad gana greitai pakankamai žmonių JAV nacionalinio saugumo bendruomenėje supras, kad nekontroliuojamas superžvalgyba yra grėsmė, o ne įrankis. Tai visiškai analogiška šaltajam karui. Vyko lenktynės dėl dominavimo – ekonominio ir karinio – prieš Sovietų Sąjungą. Mes, amerikiečiai, laimėjome tą vieną, nė karto nedalyvaudami antrosiose lenktynėse, kurios buvo skirtos išsiaiškinti, kas gali įdėti daugiausiai branduolinių kraterių į kitą supervalstybę. Žmonės suprato, kad tai tiesiog savižudybė. Niekas nelaimi. Čia galioja ta pati logika.
Ką visa tai reiškia AI plėtros tempui plačiau? Ir kaip jūs manote, ar mes esame arti jūsų aprašomų sistemų?
Prieš šešerius metus beveik kiekvienas dirbtinio intelekto ekspertas, kurį pažinojau, numatė, kad iki AI, galinčio įvaldyti kalbą ir žinias žmogaus lygmeniu, mums pritrūko dešimtmečių – galbūt 2040 m., o gal 2050 m. Jie visi klydo, nes tai jau turime dabar. Matėme, kad dirbtinis intelektas gana sparčiai progresuoja nuo vidurinės mokyklos iki kolegijos lygio iki doktorantūros lygio iki universiteto profesoriaus lygio kai kuriose srityse. Praėjusiais metais dirbtinis intelektas laimėjo aukso medalį tarptautinėje matematikos olimpiadoje, kuri yra tokia pat sudėtinga, kokia yra žmogaus užduotys. Vos prieš kelis mėnesius kartu su Yoshua Bengio, Danu Hendrycksu ir kitais geriausiais dirbtinio intelekto tyrinėtojais parašiau straipsnį, kuriame pateikiau griežtą AGI apibrėžimą. Pagal tai GPT-4 buvo 27% kelio ten. GPT-5 buvo 57 % kelio. Taigi mes dar nepasiekėme, bet nuo 27 % iki 57 % greitai rodo, kad tai gali būti neilga.
Kai vakar skaičiau paskaitas savo studentams MIT, pasakiau jiems, kad net jei tai užtruks ketverius metus, tai reiškia, kad baigę mokslus jie nebegalės gauti darbo. Tikrai dar ne per anksti pradėti tam ruoštis.
Antropikas dabar įtrauktas į juodąjį sąrašą. Man smalsu, kas nutiks toliau – ar kiti AI gigantai stovės su juo ir sakys: „Mes taip pat to nedarysime?“ O gal kažkas, pavyzdžiui, xAI, pakelia ranką ir sako: „Antropikas nenorėjo tos sutarties, mes ją priimsime“? (Redaktoriaus pastaba: Praėjus kelioms valandoms po interviu, OpenAI paskelbė apie savo susitarimą su Pentagonu.)
Praėjusią naktį Samas Altmanas išėjo ir pasakė, kad jis yra su Anthropic ir turi tas pačias raudonas linijas. Žaviuosi juo už drąsą tai pasakyti. Kai pradėjome šį interviu, „Google“ nieko nesakė. Jei jie tiesiog tylės, manau, jiems, kaip įmonei, bus nepaprastai gėda, ir daugelis jų darbuotojų jausis taip pat. Dar nieko negirdėjome iš xAI. Taigi bus įdomu pamatyti. Iš esmės, yra momentas, kai kiekvienas turi parodyti savo tikrąsias spalvas.
Ar yra tokia versija, kurioje rezultatas iš tikrųjų yra geras?
Taip, ir dėl to esu keistai nusiteikęs optimistiškai. Čia yra tokia akivaizdi alternatyva. Jei tik pradėtume dirbtinio intelekto įmonėmis elgtis kaip su kitomis įmonėmis – atsisakytume įmonių amnestijos – jos akivaizdžiai turėtų atlikti kažką panašaus į klinikinį tyrimą, kol išleis kažką tokio galingo, ir parodyti nepriklausomiems ekspertams, kad žino, kaip tai kontroliuoti. Tada sulaukiame aukso amžiaus su visais gerais dalykais iš AI, be egzistencinio nerimo. Tai ne tas kelias, kuriuo dabar einame. Bet gali būti.
Nuoroda į informacijos šaltinį

