Plan je da spreči „kritičnu štetu čovečanstvu“

Dragoljub Gajić avatar

Kalifornija prihvaća razvodnjenu verziju zakona o zaštiti veštačke inteligencije

Američka savezna država Kalifornija je na putu da usvoji „razvodnjenu“ verziju zakona o sprečavanju katastrofa sa veštačkom inteligencijom, označenu kao SB 1047, piše tehnološki portal TechCrunch.

Predlog zakona je izazvao snažno protivljenje mnogih moćnih igrača u Silicijumskoj dolini, globalnom centru razvoja AI tehnologije. Kalifornijski zakonodavci su podlegli tom pritisku, dodajući nekoliko amandmana koje je predložila AI firma „Antropik“ i drugi protivnici zakona.

U četvrtak je zakon prošao kroz kalifornijski Komitet za aproprijacije uz nekoliko ključnih izmena, rekli su iz kancelarije senatora Skota Vinera.

„Uradili smo niz veoma razumnih amandmana i verujem da smo se pozabavili suštinskim brigama koje su izrazili ‘Antropik’ i mnogi drugi u industriji. Ovi amandmani su zasnovani na značajnim promenama SB 1047 koje sam prethodno napravio da bih zadovoljio jedinstvene potrebe ‘open source’ zajednice, što je važan izvor inovacija“, rekao je senator Viner.

SB 1047 i dalje ima za cilj da spreči velike sisteme veštačke inteligencije da izazovu katastrofe, „kritičnu štetu čovečanstvu“ ili incidente u sferi sajber bezbednosti koji koštaju više od 500 miliona dolara, tako što će programere smatrati odgovornim. Međutim, zakon sada daje manje ovlašćenja kalifornijskoj vladi da smatra AI laboratorije odgovornim.

Najvažnije je da zakon više ne dozvoljava javnom tužiocu Kalifornije da tuži AI kompanije zbog nemarnih bezbednosnih praksi pre nego što se dogodi katastrofalni događaj. Ovo je bila sugestija „Antropika“.

Umesto toga, tužilac može tražiti zabranu, zahtevajući od kompanije da prekine određenu operaciju za koju smatra da je opasna, i još uvek može tužiti AI programera ako njegov model izazove katastrofalni događaj.

U nastavku, SB 1047 više ne zahteva stvaranje nove vladine agencije, što je ranije bilo uključeno u zakon. Međutim, u nacrtu zakona i dalje postoji Odbor graničnih modela (BFM). Ovaj nadzorni odbor sada ima devet umesto pet članova. On će i dalje određivati pragove u razvoju modela i izdavati bezbednosne smernice i propise za revizore.

Viner je takođe izmenio SB 1047, tako da laboratorije za veštačku inteligenciju više ne moraju podnositi sertifikate o rezultatima bezbednosnih testova pod kaznom za lažno svedočenje. Sada se od AI laboratorija jednostavno traži javna „izjava“ o njihovim bezbednosnim praksama, ali zakon više ne nameće krivičnu odgovornost.

SB 1047 sada uključuje blaži jezik o tome kako programeri obezbeđuju da su AI modeli bezbedni. Sada, zakon zahteva od programera da obezbede „razumnu“ brigu da modeli veštačke inteligencije ne predstavljaju značajan rizik od izazivanja katastrofe, umesto „razumnih garancija“ koje je predlog zakona zahtevao ranije.

Takođe, zakonodavci su dodali zaštitu za fino podešene open source modele, tj. one kojima je ostavljen otvoren pristup. Ako neko potroši manje od 10 miliona dolara na fino podešavanje takvog modela, SB 1047 ga izričito ne smatra programerom. Odgovornost će i dalje biti na originalnom, velikom programeru modela.

Dok se zakon suočio sa značajnim protivljenjem američkih kongresmena, renomiranih istraživača veštačke inteligencije, velikih tehnoloških kompanija i preduzetnika, zakon je relativno lako prošao kroz zakonodavstvo Kalifornije. Ovi amandmani će verovatno smiriti protivnike SB 1047 i predstaviti guverneru Gevinu Njusomu manje kontroverzan zakon koji može da potpiše bez gubitka podrške industrije veštačke inteligencije.

Anthropic kaže da analizira promene SB 1047 pre nego što zauzme konačnu poziciju, a Viner nije usvojio sve njihove predložene amandmane.

„Cilj SB 1047 je oduvek bio da unapredi bezbednost veštačke inteligencije, uz istovremeno omogućavanje inovacija u celom ekosistemu. Novi amandmani će podržati taj cilj“, rekao je Nejtan Kalvin, viši savetnik za politiku Akcionog fonda Centra za AI bezbednost.

Međutim, malo je verovatno da će ove promene umiriti uporne kritičare SB 1047. Iako je predlog zakona znatno slabiji nego pre ovih amandmana, SB 1047 i dalje smatra programere odgovornim za opasnosti njihovih AI modela. Ta suštinska činjenica o SB 1047 nije univerzalno podržana, a ovi amandmani malo doprinose njenom rešavanju.

Dragoljub Gajić avatar
Pretraga
Najnoviji Članci