OpenAI bashkëpunon me Los Alamos për të avancuar kërkimin bioshkencor

foto

OpenAI po bashkëpunon me Laboratorin Kombëtar të Los Alamos për të studiuar se si inteligjenca artificiale mund të përdoret për të luftuar kundër kërcënimeve biologjike që mund të krijohen nga jo-ekspertët duke përdorur mjete AI, sipas njoftimeve të mërkurën nga të dyja organizatat. Laboratori i Los Alamos, i themeluar fillimisht në New Mexico gjatë Luftës së Dytë Botërore për të zhvilluar bombën atomike, e quajti përpjekjen një studim “të parë të llojit të tij” mbi biosigurinë e AI dhe mënyrat se si AI mund të përdoret në një mjedis laboratorik.

foto

Dallimi midis dy deklaratave të lëshuara të mërkurën nga OpenAI dhe laboratorit të Los Alamos është mjaft i habitshëm. Deklarata e OpenAI përpiqet ta pikturojë partneritetin thjesht si një studim se si AI “mund të përdoret në mënyrë të sigurt nga shkencëtarët në mjediset laboratorike për të avancuar kërkimin bioshkencor”. E megjithatë, laboratori i Los Alamos e vë më shumë theksin në faktin se kërkimet e mëparshme “zbuluan se ChatGPT-4 ofroi një ngritje të lehtë në ofrimin e informacionit që mund të çonte në krijimin e kërcënimeve biologjike”.

foto

Pjesa më e madhe e diskutimit publik rreth kërcënimeve të paraqitura nga AI është përqendruar rreth krijimit të një entiteti të vetëdijshëm që mund të krijojë një mendje të vetën dhe të dëmtojë njerëzimin në një farë mënyre. Disa shqetësohen se arritja e AGI-inteligjencës së përgjithshme të avancuar, ku AI mund të kryejë arsyetim dhe logjikë të avancuar në vend që të veprojë si një gjenerues i zbukuruar i fjalëve të plotësimit automatik-mund të çojë në një situatë të stilit Skynet. Dhe ndërsa shumë përforcues të inteligjencës artificiale si Elon Musk dhe CEO i OpenAI Sam Altman janë anuar në këtë karakterizim, duket se kërcënimi më urgjent për t’u adresuar është të sigurohemi që njerëzit të mos përdorin mjete si ChatGPT për të krijuar bioarmë.

“Kërcënimet biologjike të aktivizuara nga AI mund të përbëjnë një rrezik të konsiderueshëm, por puna ekzistuese nuk ka vlerësuar sesi modelet multimodale kufitare mund të ulin pengesën e hyrjes për jo-ekspertët për të krijuar një kërcënim biologjik”, tha laboratori Los Alamos në një deklaratë të publikuar në saj. faqe interneti .

Pozicionimi i ndryshëm i mesazheve nga të dy organizatat ka të ngjarë të vijë në faktin se OpenAI mund të jetë i pakëndshëm me pranimin e implikimeve të sigurisë kombëtare të nënvizimit se produkti i tij mund të përdoret nga terroristët. Për të vënë një pikë edhe më të hollë mbi të, deklarata e Los Alamos përdor termat “kërcënim” ose “kërcënime” pesë herë, ndërsa deklarata OpenAI e përdor atë vetëm një herë.

“Potenciali përmbys për rritjen e aftësive të AI është i pafund”, tha Erick LeBrun, një shkencëtar kërkimor në Los Alamos, në një deklaratë të mërkurën. “Sidoqoftë, matja dhe kuptimi i çdo rreziku të mundshëm ose keqpërdorimi i AI të avancuar në lidhje me kërcënimet biologjike mbetet kryesisht i paeksploruar. Kjo punë me OpenAI është një hap i rëndësishëm drejt krijimit të një kuadri për vlerësimin e modeleve aktuale dhe të ardhshme, duke siguruar zhvillimin dhe vendosjen e përgjegjshme të teknologjive të AI.”

Los Alamos i dërgoi Shkence.info një deklaratë që ishte përgjithësisht optimiste për të ardhmen e teknologjisë, edhe me rreziqet e mundshme:

Teknologjia AI është emocionuese sepse është bërë një motor i fuqishëm zbulimi dhe përparimi në shkencë dhe teknologji. Ndërkohë që kjo do të çojë kryesisht në përfitime pozitive për shoqërinë, është e imagjinueshme që të njëjtat modele në duart e një aktori të keq mund ta përdorin atë për të sintetizuar informacionin që çon në mundësinë e një “si-udhëzuesi” për kërcënimet biologjike. Është e rëndësishme të merret parasysh se vetë AI nuk është një kërcënim, por është se si mund të keqpërdoret ai që është kërcënim.

Vlerësimet e mëparshme janë fokusuar kryesisht në të kuptuarit nëse teknologji të tilla të AI mund të ofrojnë “udhëzues” të saktë. Megjithatë, ndërsa një aktor i keq mund të ketë akses në një udhëzues të saktë për të bërë diçka të keqe, kjo nuk do të thotë se ata do të jenë në gjendje. Për shembull, mund ta dini se keni nevojë të ruani sterilitetin gjatë kultivimit të qelizave ose të përdorni një specifikim masiv, por nëse nuk keni përvojë për ta bërë këtë përpara mund të jetë shumë e vështirë për t’u realizuar.

Duke zmadhuar, ne po përpiqemi më gjerësisht të kuptojmë se ku dhe si i shtojnë vlerë këto teknologji AI fluksit të punës. Qasja në informacion (p.sh., gjenerimi i një protokolli të saktë) është një fushë ku mundet, por është më pak e qartë se sa mirë këto teknologji të AI mund t’ju ndihmojnë të mësoni se si të bëni një protokoll në një laborator me sukses (ose aktivitete të tjera të botës reale, si p.sh. shkelmimi i një futbolli topin ose pikturimin e një fotografie). Vlerësimi ynë i parë pilot i teknologjisë do të kërkojë të kuptojë se si AI u mundëson individëve të mësojnë se si të bëjnë protokolle në botën reale, gjë që do të na japë një kuptim më të mirë jo vetëm se si mund të ndihmojë në aftësimin e shkencës, por edhe nëse do t’i mundësonte një aktori të keq të ekzekutonte. një aktivitet i poshtër në laborator.

Përpjekjet e laboratorit të Los Alamos po koordinohen nga Grupi i Vlerësimit Teknik të Rrezikut të AI.