CEO i OpenAI, Sam Altman, paralajmëron përdoruesit të mos i besojnë agjentit ChatGPT të dhëna të ndjeshme ose personale

Drejtori ekzekutiv i OpenAI, Sam Altman, po i paralajmëron përdoruesit të mos mbështeten shumë te agjenti i ri ChatGPT, veçanërisht kur bëhet fjalë për detyra që përfshijnë të dhëna të ndjeshme ose personale.

Agjenti ChatGPT është sistemi i parë i OpenAI i ndërtuar për të trajtuar detyra me shumë hapa në mënyrë autonome. Sipas Altman, agjenti mund t’i ndajë kërkesat në hapa më të vegjël, të përdorë mjete të jashtme dhe të kryejë veprime vetë – duke shkuar përtej produkteve të mëparshme si Deep Research dhe Operator.

Por Altman thotë se përdoruesit nuk duhet të supozojnë se teknologjia është e sigurt për gjithçka. Edhe me “shumë masa mbrojtëse dhe paralajmërime në të”, thotë ai, ka ende rreziqe që nuk mund të parashikohen. Ai këshillon posaçërisht kundër përdorimit të agjentit për detyra të rëndësishme ose çdo gjë që përfshin shumë informacione personale.
Altman thekson rrezikun e dhënies së lejeve të gjera një agjenti të inteligjencës artificiale, si qasja në një llogari email-i, pa mbikëqyrje. Për shembull, nëse i thoni agjentit të trajtojë email-et tuaja dhe të ndërmarrë çdo veprim të nevojshëm, një mesazh keqdashës mund ta mashtrojë atë që të ekspozojë të dhëna të ndjeshme ose të bëjë diçka që nuk duhet.
Studiuesit kanë treguar vazhdimisht se agjentët e inteligjencës artificiale mund të manipulohen me udhëzime relativisht të thjeshta, duke çuar ndonjëherë në zbulimin e informacionit privat ose veprimeve të padëshiruara.
Altman e quan këtë version të agjentit ChatGPT një sistem “eksperimental”. Ai thotë se ofron një pamje paraprake të asaj që është e mundur, por nuk është i përshtatshëm për raste përdorimi me rrezik të lartë ose të ndjeshme ndaj privatësisë.
“Nuk e dimë saktësisht se cilat do të jenë ndikimet, por aktorët e këqij mund të përpiqen t’i “mashtrojnë” agjentët e inteligjencës artificiale të përdoruesve që të japin informacione private që nuk duhet dhe të ndërmarrin veprime që nuk duhet, në mënyra që nuk mund t’i parashikojmë. Ne rekomandojmë t’u jepni agjentëve aksesin minimal të kërkuar për të përfunduar një detyrë për të zvogëluar rreziqet e privatësisë dhe sigurisë”, shkruan Altman.
Për momentin, Altman rekomandon që agjentëve t’u jepet vetëm aksesi minimal i nevojshëm dhe thotë se OpenAI do të mbështetet në reagimet nga bota reale për të rafinuar masat e saj të sigurisë. Por nëse diçka shkon keq ose ekspozohen të dhëna të ndjeshme, përgjegjësia bie mbi përdoruesin – jo mbi OpenAI. Kushdo që përdor agjentin ChatGPT duhet të jetë i vetëdijshëm për rreziqet.
Altman e mbron këtë qasje duke thënë: “Ne mendojmë se është e rëndësishme të fillojmë të mësojmë nga kontakti me realitetin dhe që njerëzit t’i përvetësojnë këto mjete me kujdes dhe ngadalë, ndërsa ne i përcaktojmë dhe i zbusim më mirë rreziqet e mundshme të përfshira. Ashtu si me nivelet e tjera të reja të aftësisë, shoqëria, teknologjia dhe strategjia e zbutjes së rrezikut do të duhet të bashkë-evoluojnë.”