„Mokslas“ įrašas!25 geriausi mokslininkai skambina: sparčiai plėtojant AI

Estimated read time 3 min read

Finansų asociacija gegužės 22 d. (Redaktorius Zhou Ziyi)Atsižvelgiant į dirbtinį intelektą, kuris gali greitai išsivystyti, neatrodo, kad reaguotų į pasaulinę riziką.

Antrojo dirbtinio intelekto saugumo viršūnių susitikimo metu (gegužės 21 d. -22), vykusioje Seule, Pietų Korėjoje, 25 pasaulis, kuris gyvena dirbtinio intelekto mokslininkai, kartu paskelbė ekspertą žurnale „Science“. Pasaulio nepakanka norint apsaugoti žmones nuo technologijų veisimo.

Straipsnyje jie apibūdina skubios pagalbos politikos prioritetą, kurį turėtų priimti pasauliniai vadovai, kad reaguotų į dirbtinio intelekto technologijos grėsmę.

Svarbūs pasiūlymai

Šio dokumento rašytojai apima 25 pasaulį, kuris gyvena dirbtinio intelekto ir valdymo akademinių ekspertų, įskaitant Geoffrey Hinton, Andrew Yao, Dawn Song, Daniel Kahneman.Šie autoriai yra kilę iš JAV, Kinijos, Europos Sąjungos, Jungtinės Karalystės ir kitų dirbtinio žvalgybos galių, įskaitant Turingo nugalėtoją, Nobelio premijos laureatą ir standartinio dirbtinio intelekto vadovėlio autorių.

Šie mokslininkai atkreipė dėmesį į tai, kad pasaulio lyderiai turi rimtai įvertinti galimybę sukurti stiprią bendrą dirbtinio intelekto (AGI) sistemą dabartiniu dešimtmečiu ar ateinančiais dešimt metų.

Jie taip pat teigė, kad nors vyriausybės visame pasaulyje diskutavo apie dirbtinį intelektą ir bandė įvesti preliminarias rekomendacijas, tai nėra panaši į greitos ir reformų progreso galimybę tikėtis daugelio ekspertų.

Oksfordo universiteto inžinerijos mokslo katedros profesorius Philipas Torr ir Oksfordo universiteto inžinerijos mokslo katedra teigė: „Paskutiniame dirbtinio žvalgybos viršūnių susitikime visas pasaulis sutiko imtis veiksmų, tačiau laikas pakeisti neaiškius pasiūlymus į konkrečius įsipareigojimus “.

Šiame darbe pateikiami keli svarbūs pasiūlymai įmonei ir vyriausybei pažadėti, įskaitant:

Susikurkite ekspertų agentūrą, kuri galėtų greitai reaguoti į riziką prižiūrėti dirbtinį intelektą ir suteikti daugiau lėšų šioms institucijoms.

Griežtesnis rizikos vertinimas ir vykdomi rezultatai, o ne priklauso nuo savanoriško ar neaiškių modelio vertinimų.

Dirbtinio intelekto įmonės privalo teikti pirmenybę saugumui ir įrodyti, kad jų sistemos nepadarys žalos, o dirbtinio intelekto kūrėjai turėtų apsvarstyti saugumą.

Įdiekite rizikos lėto išleidimo standartus, atitinkančius rizikos lygio, kurį sudaro dirbtinio intelekto sistema, lygį.Tinkamos strategijos turėtų būti sudarytos, kad būtų galima automatiškai sukelti griežtus reikalavimus, kai dirbtinis intelektas atitinka tam tikrus galimybes;

Verta paminėti, kad dirbtinio žvalgybos viršūnių susitikime antradienį (gegužės 21 dTarptautinis protokolas, turintis reikšmės ridosEsmė

Pagal šį susitarimą daugelis įmonių prisiima įsipareigojimus, įskaitant saugumo sistemos išleidimą, kad būtų išvardyta potenciali rizika; Modelio kūrimo procesas.

Vyriausybės priežiūros vadovas

Anot autoriaus, vyriausybė ateityje turi paruošti pagrindinį vaidmenį prižiūrint nenormalią dirbtinio intelekto sistemą.Tai apima: leidžia kurti šias sistemas, riboja jos autonomiją pagrindiniuose socialiniuose vaidmenys

Kalifornijos universiteto, Berkeley universiteto informatikos profesorius ir pasaulinio standartinio dirbtinio intelekto vadovėlio Stuarto Russello Obe’o autorius sakė: „Tai yra disertacija, kurią pasiekė geriausi ekspertai, kuri ragina vyriausybę griežtai prižiūrėti, o ne, o ne prižiūrėti, o ne prižiūrėti, o ne prižiūrėti, o ne prižiūrėti, o ne prižiūrėti, o ne prižiūrėti, vietoj to Savanoriško pramonės elgesio formulavimas, kad būtų suformuluotas savanoriškai kodeksas.

You May Also Like

More From Author