Silicon Valley po debaton nëse armët e AI duhet të lejohen të vendosin për të vrarë

foto

Në fund të shtatorit, bashkëthemeluesi i Shield AI Brandon Tseng u betua se armët në SHBA nuk do të ishin kurrë plotësisht autonome që do të thotë se një algoritëm i AI do të merrte vendimin përfundimtar për të vrarë dikë. “Kongresi nuk e dëshiron këtë,” tha themeluesi i teknologjisë së mbrojtjes për TechCrunch. “Askush nuk e dëshiron këtë.”

foto

Por Tseng foli shumë shpejt. Pesë ditë më vonë, bashkë-themeluesi i Anduril Palmer Luckey shprehu një hapje ndaj armëve autonome ose të paktën një skepticizëm të rëndë të argumenteve kundër tyre. Kundërshtarët e SHBA-së “përdorin fraza që tingëllojnë shumë mirë në një kafshim të tingullit: Epo, a nuk mund të jeni dakord që një robot nuk duhet të jetë kurrë në gjendje të vendosë se kush jeton dhe kush vdes?” tha Luckey gjatë një fjalimi në fillim të këtij muaji në Universitetin Pepperdine. “Dhe qëllimi im për ta është, ku është baza morale në një minë tokësore që nuk mund të bëjë dallimin midis një autobusi shkollor plot me fëmijë dhe një tanku rus?”

foto

Kur u pyet për komente të mëtejshme, Shannon Prior, një zëdhënës i Anduril, tha se Luckey nuk do të thoshte që robotët duhet të programohen për të vrarë njerëz vetë, por vetëm se ai ishte i shqetësuar për “njerëzit e këqij që përdorin AI të keqe”.

Në të kaluarën, Silicon Valley ka gabuar në anën e kujdesit. Merre atë nga bashkëthemeluesi i Luckey, Trae Stephens. “Unë mendoj se teknologjitë që ne po ndërtojmë po bëjnë të mundur që njerëzit të marrin vendimet e duhura për këto gjëra,” i tha ai Kara Swisher vitin e kaluar. “Kështu që të ketë një palë të përgjegjshme dhe të përgjegjshme në lak për të gjitha vendimet që mund të përfshijnë vdekjeprurëse, padyshim.”

Zëdhënësi i Anduril mohoi çdo mosmarrëveshje midis Luckey dhe këndvështrimeve të Stephens dhe tha se Stephens nuk donte të thoshte që një njeri duhet të bënte gjithmonë thirrjen, por thjesht që dikush të ishte përgjegjës.

Për të qenë të drejtë, qëndrimi i vetë qeverisë amerikane është po aq i paqartë. Ushtria amerikane aktualisht nuk blen armë plotësisht autonome. Megjithëse disa argumentojnë se armët si minat dhe raketat mund të funksionojnë në mënyrë autonome, kjo është një formë cilësisht e ndryshme autonomie sesa, të themi, një frëngji që identifikon, merr dhe qëllon mbi objektiva pa ndërhyrjen njerëzore.

SHBA nuk i ndalon kompanitë të prodhojnë armë vdekjeprurëse plotësisht autonome dhe as nuk i ndalon në mënyrë eksplicite që të shesin gjëra të tilla në vende të huaja. Vitin e kaluar, SHBA lëshoi ​​udhëzime të përditësuara për sigurinë e AI në ushtri, të cilat janë miratuar nga shumë aleatë të SHBA-së dhe kërkojnë që zyrtarët e lartë ushtarakë të miratojnë çdo armë të re autonome; megjithatë udhëzimet janë vullnetare (Anduril tha se është i përkushtuar të ndjekë udhëzimet), dhe zyrtarët amerikanë kanë thënë vazhdimisht se “nuk është koha e duhur” për të shqyrtuar çdo ndalim detyrues për armët autonome.

Muajin e kaluar, bashkëthemeluesi i Palantir dhe investitori i Anduril Joe Lonsdale tregoi gjithashtu një gatishmëri për të konsideruar armë plotësisht autonome. Në një ngjarje të organizuar nga Instituti Hudson Hudson, Lonsdale shprehu zhgënjimin që kjo pyetje po përshtatet si një po-ose-jo fare. Ai në vend të kësaj paraqiti një hipotetike ku Kina ka përqafuar armët e AI, por SHBA duhet të “shtypë butonin sa herë që gjuan”. Ai inkurajoi politikëbërësit që të përqafojnë një qasje më fleksibël se sa është AI në armë.

“Ju e kuptoni shumë shpejt, mirë, supozimet e mia ishin të gabuara nëse vendosa një rregull budalla nga lart-poshtë, sepse unë jam një punonjës që nuk e kam luajtur kurrë këtë lojë më parë,” tha ai. “Unë mund të na shkatërroj në betejë.”

Kur TechCrunch pyeti Lonsdale për komente të mëtejshme, ai theksoi se kompanitë e teknologjisë së mbrojtjes nuk duhet të jenë ato që vendosin axhendën për AI vdekjeprurëse. “Konteksti kryesor i asaj që po thosha është se kompanitë tona nuk bëjnë politikën dhe nuk duan të bëjnë politikën: është puna e zyrtarëve të zgjedhur të bëjnë politikën,” tha ai. “Por ata duhet të edukojnë veten në nuancat për të bërë një punë të mirë.”

Ai përsëriti gjithashtu një gatishmëri për të konsideruar më shumë autonomi në armë. “Nuk është një binar siç sugjeroni – ‘plotësisht autonome apo jo’ nuk është pyetja e saktë e politikës. Ekziston një numërues i sofistikuar përgjatë disa dimensioneve të ndryshme për atë që mund të bëni një ushtar dhe atë që keni të bëjë sistemi i armëve, “tha ai. “Përpara se politikëbërësit të vendosin këto rregulla dhe të vendosin se ku duhet të vendosen numrat në çfarë rrethanë, ata duhet të mësojnë lojën dhe të mësojnë se çfarë mund të bëjnë njerëzit e këqij dhe çfarë është e nevojshme për të fituar me jetën amerikane në linjë.”

Aktivistët dhe grupet e të drejtave të njeriut janë përpjekur prej kohësh dhe kanë dështuar të vendosin ndalime ndërkombëtare për armët autonome vdekjeprurëse ndalime që SHBA-ja i ka rezistuar nënshkrimit . Por lufta në Ukrainë mund ta ketë kthyer valën kundër aktivistëve, duke ofruar si një grumbull të dhënash luftarake ashtu edhe një fushë beteje për themeluesit e teknologjisë së mbrojtjes për ta provuar. Aktualisht, kompanitë integrojnë inteligjencën artificiale në sistemet e armëve, megjithëse ende kërkojnë që një njeri të marrë vendimin përfundimtar për të vrarë.

Ndërkohë, zyrtarët ukrainas kanë bërë presion për më shumë automatizim në armë, duke shpresuar se kjo do t’u japë atyre një avantazh ndaj Rusisë. “Ne kemi nevojë për automatizim maksimal,” tha Mykhailo Fedorov, ministri i transformimit dixhital i Ukrainës, në një intervistë me The New York Times. “Këto teknologji janë thelbësore për fitoren tonë.”

Për shumë njerëz në Silicon Valley dhe DC, frika më e madhe është se Kina ose Rusia nxjerrin së pari armë plotësisht autonome, duke detyruar dorën e SHBA-së. Në një debat të OKB-së për armët e AI vitin e kaluar, një diplomat rus ishte veçanërisht i turpshëm. “Ne e kuptojmë se për shumë delegacione prioritet është kontrolli njerëzor,” tha ai. “Për Federatën Ruse, prioritetet janë disi të ndryshme.”

Në ngjarjen e Institutit Hudson, Lonsdale tha se sektori i teknologjisë duhet të marrë përsipër të “mësojë Marinën, të mësojë DoD, të mësojë Kongresin” për potencialin e AI për të “shpresojmë që të na bëjë përpara Kinës”.

Kompanitë e lidhura me Lonsdale dhe Luckey po punojnë për ta bërë Kongresin t’i dëgjojë ato. Anduril dhe Palantir kanë shpenzuar në mënyrë kumulative mbi 4 milionë dollarë në lobim këtë vit, sipas OpenSecrets.