Ish-shkencëtari kryesor i OpenAI po fillon një kompani të re të AI

foto

Ilya Sutskever, bashkëthemeluesi i OpenAI dhe ish-shkencëtari kryesor, po fillon një kompani të re të AI të fokusuar në siguri. Në një postim të mërkurën, Sutskever zbuloi Safe Superintelligence Inc. (SSI), një startup me “një qëllim dhe një produkt:” duke krijuar një sistem të sigurt dhe të fuqishëm të AI.

foto

Njoftimi përshkruan SSI si një startup që “i afrohet sigurisë dhe aftësive së bashku”, duke e lejuar kompaninë të avancojë shpejt sistemin e saj të AI, ndërsa ende i jep përparësi sigurisë. Ai gjithashtu thekson presionin e jashtëm të AI në kompani si OpenAI, Google dhe Microsoft, duke thënë se “fokusi i vetëm” i kompanisë e lejon atë të shmangë “shpërqëndrimin nga shpenzimet e sipërme të menaxhimit ose ciklet e produktit”.

“Modeli ynë i biznesit do të thotë se siguria, siguria dhe progresi janë të gjitha të izoluara nga presionet tregtare afatshkurtra”, thuhet në njoftim. “Në këtë mënyrë, ne mund të shkojmë në paqe.” Përveç Sutskever, SSI është bashkë-themeluar nga Daniel Gross, një ish-udhëheqës i AI në Apple, dhe Daniel Levy, i cili më parë ka punuar si anëtar i stafit teknik në OpenAI.

foto

Vitin e kaluar, Sutskever udhëhoqi përpjekjet për të rrëzuar CEO të OpenAI Sam Altman . Sutskever u largua nga OpenAI në maj dhe la të kuptohet për fillimin e një projekti të ri. Menjëherë pas largimit të Sutskever, studiuesi i AI Jan Leike njoftoi dorëheqjen e tij nga OpenAI, duke përmendur proceset e sigurisë që “kanë zënë vendin e pasëm për produktet me shkëlqim”. Gretchen Krueger, një studiuese e politikave në OpenAI, përmendi gjithashtu shqetësimet e sigurisë kur njoftoi largimin e saj.

Ndërsa OpenAI po ecën përpara me partneritetet me Apple dhe Microsoft, ka të ngjarë që SSI nuk do ta bëjë këtë së shpejti. Gjatë një interviste me Bloomberg, Sutskever thotë se produkti i parë i SSI do të jetë superinteligjencë e sigurt dhe kompania “nuk do të bëjë asgjë tjetër” deri atëherë.