OpenAI thotë se ChatGPT me siguri nuk do të bëjë një armë biologjike

OpenAI publikoi një studim që kompania kreu mbi efektivitetin e GPT-4 në krijimin e një arme biologjike të mërkurën. Kompania zbuloi se AI i saj paraqet “më së shumti” një rrezik të vogël për të ndihmuar dikë që të prodhojë një kërcënim biologjik. Flitet shumë për AI që përshpejton dënimin tonë të afërt, por OpenAI dëshiron që ju të dini se jeni mirë… ndoshta!

foto

“Ne zbuluam se GPT-4 ofron më së shumti një ngritje të butë në saktësinë e krijimit të kërcënimit biologjik,” tha OpenAI në një postim në blog të mërkurën, në lidhje me një vlerësim që përfshin ekspertë të biologjisë dhe studentë të biologjisë. “Ndërsa ky ngritje nuk është mjaftueshëm i madh për të qenë përfundimtar, gjetja jonë është një pikënisje për kërkime të vazhdueshme dhe diskutime në komunitet.”

foto

Pra, pse e publikoi OpenAI këtë studim për të na bërë të ditur se ChatGPT do të ndihmojë dikë “thjesht një copëz” në krijimin e një bioarme? Në Urdhrin Ekzekutiv të Inteligjencës Artificiale të Presidentit Biden nga tetori i kaluar, Shtëpia e Bardhë shpreh shqetësimin se AI mund të ” ulë ndjeshëm pengesën e hyrjes ” për të krijuar armë biologjike. Duke u përballur me presionin nga politikëbërësit, OpenAI do të donte të lehtësonte shqetësimet tona se modelet e tij të mëdha gjuhësore mezi ndihmojnë fare në krijimin e armëve biologjike. Megjithatë, duket se ato ndihmojnë paksa. Por hej, sa janë disa pikë përqindjeje kur rezultati është, oh nuk e di, fundi i njerëzimit?

OpenAI mblodhi 50 ekspertë biologjie me doktoraturë dhe 50 studentë universiteti që kanë ndjekur një kurs biologjie. 100 pjesëmarrësit u ndanë në një grup kontrolli dhe një grup trajtimi, ku grupi i kontrollit mund të përdorte vetëm internetin, ndërsa grupi i trajtimit mund të përdorte internetin plus GPT-4. Më pas atyre iu kërkua të krijonin një plan për të krijuar dhe lëshuar një armë biologjike nga fillimi në fund.

Pjesëmarrësve iu dha modeli ‘vetëm kërkimor’ i GPT-4 në mënyrë që modeli t’u përgjigjej pyetjeve në lidhje me armët biologjike. Në mënyrë tipike, GPT-4 nuk u përgjigjet pyetjeve që i konsideron të dëmshme. Sidoqoftë, shumë kanë kuptuar se si të bëjnë jailbreak ChatGPT për të kapërcyer probleme si kjo.

Planet e armëve biologjike u vlerësuan në një shkallë nga 1-10 për saktësinë, plotësinë, inovacionin dhe efikasitetin. Ekspertët e biologjisë treguan një rritje prej 8.8% në saktësinë në krijimin e një arme biologjike kur përdorni GPT-4, kundrejt vetëm internetit, ndërsa studentët e biologjisë kishin vetëm një rritje prej 2.5%. GPT-4 pati efekte të ngjashme në përmirësimin e kompletimit të armëve biologjike, me ekspertët që përjetuan një përmirësim prej 8.2%, ndërsa studentët treguan një rritje prej 4.1% në kompletim.

OpenAI thotë se këto shifra “nuk janë mjaft të mëdha për të qenë statistikisht të rëndësishme”. Duket se aftësia e GPT-4 për të dhënë në mënyrë efikase pjesë të veçanta të informacionit mund të përmirësojë paksa aftësinë e dikujt për të ndërtuar me saktësi dhe plotësisht një bioarmë. Megjithatë, kompania vëren se vetëm aksesi në informacion është i pamjaftueshëm për të krijuar një kërcënim biologjik dhe ata nuk testuan se si GPT-4 mund të ndihmonte fizikisht në ndërtimin e një kërcënimi.