Drejtori i Përgjithshëm i AWS, Matt Garman, për AI gjeneruese, shërbime me burim të hapur dhe shërbime mbyllëse
Ishte një surprizë kur Adam Selipsky dha dorëheqjen si CEO i njësisë kompjuterike cloud AWS të Amazon. Ajo që ishte ndoshta po aq e papritur ishte që Matt Garman e pasoi atë. Garman iu bashkua Amazon si praktikant në 2005 dhe u bë një punonjës me kohë të plotë në 2006, duke punuar në produktet e hershme AWS. Pak njerëz e njohin biznesin më mirë se Garman, pozicioni i fundit i të cilit përpara se të bëhej CEO ishte VP i lartë për shitjet, marketingun dhe shërbimet globale të AWS.
Garman më tha në një intervistë javën e kaluar se ai nuk ka bërë ende ndonjë ndryshim masiv në organizatë. “Asnjë ton nuk ka ndryshuar në organizim. Biznesi po ecën mjaft mirë, kështu që nuk ka nevojë të bëjmë një ndryshim masiv në çdo gjë që ne jemi të fokusuar, “tha ai. Megjithatë, ai vuri në dukje disa fusha ku ai mendon se kompania duhet të fokusohet dhe ku ai sheh mundësi për AWS.
Një prej tyre, disi çuditërisht, janë startup-et. “Mendoj se si ne kemi evoluar si organizatë. … Në fillim të jetës së AWS, ne u përqendruam shumë në atë se si apelojmë vërtet për zhvilluesit dhe startup-et, dhe kemi pasur shumë tërheqje të hershme atje,” shpjegoi ai. “Dhe më pas filluam të shikojmë se si apelojmë për ndërmarrjet më të mëdha, si apelojmë tek qeveritë, si u bëjmë thirrje sektorëve të rregulluar në mbarë botën? Dhe unë mendoj se një nga gjërat që sapo e ritheksova – nuk është në të vërtetë një ndryshim – por thjesht theksoj gjithashtu se nuk mund ta humbim atë fokus te startup-et dhe zhvilluesit. Ne duhet t’i bëjmë të gjitha ato gjëra.”
Fusha tjetër në të cilën ai dëshiron që ekipi të përqendrohet është të vazhdojë me vorbullën e ndryshimit në industri tani.
“Unë e kam theksuar me të vërtetë me ekipin se sa e rëndësishme është për ne që të vazhdojmë të mos qëndrojmë në drejtimin që kemi në lidhje me grupin e shërbimeve dhe aftësive, veçorive dhe funksioneve që kemi sot – dhe të vazhdojmë të anojmë përpara dhe duke ndërtuar atë udhërrëfyes të inovacionit të vërtetë,” tha ai. “Unë mendoj se arsyeja që klientët përdorin AWS sot është sepse ne kemi grupin më të mirë dhe më të gjerë të shërbimeve. Arsyeja që njerëzit anojnë nga ne sot është sepse ne vazhdojmë të kemi, deri tani, performancën më të mirë të sigurisë dhe operacionale të industrisë, dhe i ndihmojmë ata të inovojnë dhe të ecin më shpejt. Dhe ne duhet të vazhdojmë të shtyjmë në atë udhërrëfyes të gjërave për të bërë. Nuk është me të vërtetë një ndryshim, në vetvete, por është gjëja që unë ndoshta e kam theksuar më së shumti: Sa e rëndësishme është për ne të ruajmë atë nivel të inovacionit dhe të ruajmë shpejtësinë me të cilën po ofrojmë.”
Kur e pyeta nëse mendonte se ndoshta kompania nuk kishte inovuar mjaftueshëm shpejt në të kaluarën, ai argumentoi se nuk mendonte kështu. “Unë mendoj se ritmi i inovacionit vetëm do të përshpejtohet, dhe kështu është vetëm një theksim që ne gjithashtu duhet të përshpejtojmë ritmin tonë të inovacionit. Nuk është se po e humbasim; është vetëm ai theks në atë se sa duhet të vazhdojmë të përshpejtojmë me ritmin e teknologjisë që është atje.”
Me ardhjen e inteligjencës artificiale gjeneruese dhe sa shpejt teknologjitë po ndryshojnë tani, AWS gjithashtu duhet të jetë “në avantazhin e secilit prej tyre”, tha ai.
Menjëherë pas lançimit të ChatGPT, shumë ekspertë pyetën nëse AWS kishte qenë shumë i ngadalshëm për të lançuar vetë mjetet gjeneruese të AI dhe kishte lënë një hapje për konkurrentët e tij si Google Cloud dhe Microsoft Azure. Por Garman mendon se ky ishte më shumë perceptim sesa realitet. Ai vuri në dukje se AWS kishte ofruar prej kohësh shërbime të suksesshme të mësimit të makinerive si SageMaker, madje edhe përpara se AI gjeneruese të bëhej një fjalë kryesore. Ai gjithashtu vuri në dukje se kompania mori një qasje më të qëllimshme ndaj AI gjeneruese sesa ndoshta disa nga konkurrentët e saj.
“Ne kishim parë inteligjencën artificiale gjeneruese përpara se të bëhej një gjë e pranuar gjerësisht, por do të them se kur doli ChatGPT, pati një lloj zbulimi të një zone të re, mënyrash se si kjo teknologji mund të zbatohej. Dhe unë mendoj se të gjithë ishin të emocionuar dhe u aktivizuan nga kjo, apo jo? … Unë mendoj se një grup njerëzish – konkurrentët tanë – u përpoqën të vendosnin chatbot-et në krye të gjithçkaje dhe të tregonin se ata ishin në krye të inteligjencës artificiale gjeneruese,” tha ai.
Në vend të kësaj, tha Garman, ekipi i AWS dëshironte të bënte një hap prapa dhe të shikonte se si klientët e tij, qofshin startup apo ndërmarrje, mund ta integronin më së miri këtë teknologji në aplikacionet e tyre dhe të përdornin të dhënat e tyre të diferencuara për ta bërë këtë. “Ata do të duan një platformë që në të vërtetë mund të kenë fleksibilitetin për ta ndërtuar mbi të dhe me të vërtetë e mendojnë atë si një platformë ndërtimi në krahasim me një aplikacion që ata do ta përshtatin. Dhe kështu ne gjetëm kohë për të ndërtuar atë platformë, “tha ai.
Për AWS, ajo platformë është Bedrock, ku ofron akses në një shumëllojshmëri të gjerë modelesh të hapura dhe të pronarit. Thjesht bërja e kësaj – dhe lejimi i përdoruesve të lidhin modele të ndryshme së bashku – ishte paksa e diskutueshme në atë kohë, tha ai. “Por për ne, ne menduam se ndoshta atje shkon bota, dhe tani është një përfundim i paramenduar se atje shkon bota,” tha ai. Ai tha se mendon se të gjithë do të duan modele të personalizuara dhe do të sjellin të dhënat e tyre tek ata.
Bedrock, tha Garman, “po rritet si një farë e keqe tani”.
Megjithatë, një problem rreth AI gjeneruese që ai dëshiron të zgjidhë, është çmimi. “Shumë prej tyre po dyfishohen në silikonin tonë të personalizuar dhe disa ndryshime të tjera të modelit, në mënyrë që të nxjerrim përfundimin se do të ndërtoni në aplikacionet tuaja [diçka] shumë më të përballueshme.”
Gjenerata e ardhshme e AWS të çipave të saj të personalizuar Trainium, të cilat kompania debutoi në konferencën e saj re:Invent në fund të 2023, do të nisë në fund të këtij viti, tha Garman. “Jam vërtet i emocionuar që ne mund ta kthejmë me të vërtetë atë kurbë të kostos dhe të fillojmë të ofrojmë vlerë reale për klientët.”
Një fushë ku AWS nuk është përpjekur domosdoshmërisht të konkurrojë me disa nga gjigantët e tjerë të teknologjisë është ndërtimi i modeleve të saj të mëdha gjuhësore. Kur e pyeta Garman për këtë, ai vuri në dukje se ato janë ende diçka në të cilën kompania është “shumë e fokusuar”. Ai mendon se është e rëndësishme që AWS të ketë modele të palës së parë, e gjithë kjo ndërkohë që vazhdon të mbështetet edhe në modelet e palëve të treta. Por ai gjithashtu dëshiron të sigurohet që modelet e veta të AWS mund të shtojnë vlerë unike dhe të dallojnë, qoftë përmes përdorimit të të dhënave të veta ose “nëpërmjet fushave të tjera ku ne shohim mundësi”.
Midis atyre fushave të mundësive është kostoja, por edhe agjentët, për të cilat të gjithë në industri duket se janë të mirë për momentin. “Duke pasur modelet në mënyrë të besueshme, në një nivel shumë të lartë korrektësie, të dalin jashtë dhe të thërrasin API-të e tjera dhe të shkoni të bëni gjëra, kjo është një fushë ku mendoj se ka disa risi që mund të bëhen atje,” tha Garman. Agjentët, thotë ai, do të hapin shumë më tepër dobi nga AI gjeneruese duke automatizuar proceset në emër të përdoruesve të tyre.
Në konferencën e saj të fundit re:Invent, AWS lançoi gjithashtu Q , asistentin e tij gjenerues të fuqizuar nga AI. Tani për tani, ekzistojnë në thelb dy shije të kësaj: Q Developer dhe Q Business.
Q Zhvilluesi integrohet me shumë nga mjediset më të njohura të zhvillimit dhe, ndër të tjera, ofron plotësimin e kodit dhe veglat për të modernizuar aplikacionet e vjetra Java.
“Ne me të vërtetë mendojmë për Q Zhvilluesin si një ndjenjë më të gjerë për të ndihmuar me të vërtetë përgjatë ciklit jetësor të zhvilluesit,” tha Garman. “Unë mendoj se shumë nga mjetet e hershme të zhvilluesve kanë qenë super të fokusuar në kodim dhe ne mendojmë më shumë se si të ndihmojmë në gjithçka që është e dhimbshme dhe e mundimshme për zhvilluesit?”
Në Amazon, ekipet përdorën Q Developer për të përditësuar 30,000 aplikacione Java, duke kursyer 260 milionë dollarë dhe 4,500 vite zhvilluesish gjatë procesit, tha Garman.
Q Business përdor teknologji të ngjashme nën kapak, por fokusi i tij është në grumbullimin e të dhënave të brendshme të kompanisë nga një shumëllojshmëri burimesh dhe t’i bëjë ato të kërkueshme përmes një shërbimi pyetje-përgjigje të ngjashme me ChatGPT. Kompania “po sheh një tërheqje të vërtetë atje,” tha Garman.
Ndërsa Garman vuri në dukje se nuk ka ndryshuar shumë nën udhëheqjen e tij, një gjë që ka ndodhur kohët e fundit në AWS është se kompania njoftoi planet për të mbyllur disa nga shërbimet e saj. Kjo nuk është diçka që AWS e ka bërë tradicionalisht kaq shpesh, por këtë verë, ajo njoftoi planet për të mbyllur shërbime si Cloud9 IDE i bazuar në ueb, konkurrenti i tij CodeCommit GitHub, CloudSearch dhe të tjerë.
“Është paksa një lloj pastrimi ku ne shikuam një sërë shërbimesh, ku ose, sinqerisht, ne kemi lançuar një shërbim më të mirë ku njerëzit duhet të lëvizin, ose kemi nisur një shërbim që thjesht nuk e kemi bërë. merre mirë,” shpjegoi ai. “Dhe, meqë ra fjala, ka disa prej tyre që ne thjesht nuk i kuptojmë mirë dhe tërheqja e tyre ishte mjaft e lehtë. Ne e shikuam dhe thamë: ‘E dini çfarë? Ekosistemi partner ka në fakt një zgjidhje më të mirë atje dhe ne thjesht do të mbështetemi në këtë.’ Nuk mund të investosh në gjithçka. Nuk mund të ndërtosh gjithçka. Nuk na pëlqen ta bëjmë këtë. Ne e marrim seriozisht nëse kompanitë do të vënë bast biznesin e tyre që ne të mbështesim gjërat për një afat të gjatë. Dhe kështu ne jemi shumë të kujdesshëm për këtë.”
Një marrëdhënie që ka qenë prej kohësh e vështirë për AWS – ose të paktën është perceptuar si e vështirë – është me ekosistemin me burim të hapur. Kjo po ndryshon dhe vetëm pak javë më parë, AWS solli kodin e saj OpenSearch në Fondacionin Linux dhe Fondacionin e sapoformuar OpenSearch.
“Unë mendoj se pikëpamja jonë është mjaft e drejtpërdrejtë,” tha Garman kur e pyeta se si mendonte për marrëdhënien midis AWS dhe burimit të hapur në vazhdim. “Ne e duam burimin e hapur. Ne mbështetemi në burim të hapur. Unë mendoj se ne përpiqemi të përfitojmë nga komuniteti me burim të hapur dhe të jemi një kontribues i madh në komunitetin me burim të hapur. Mendoj se kjo është e gjithë pika e burimit të hapur – përfitimi nga komuniteti – dhe kështu kjo është gjëja që ne e marrim seriozisht.”
Ai vuri në dukje se AWS ka bërë investime kyçe në burim të hapur dhe me burim të hapur shumë nga projektet e veta.
“Shumica e fërkimit ka qenë nga kompanitë që fillimisht filluan projekte me burim të hapur dhe më pas vendosën t’i heqin ato me burim të hapur, gjë që mendoj se është e drejta e tyre për ta bërë. Por ju e dini, kjo nuk është në të vërtetë fryma e burimit të hapur. Dhe kështu, sa herë që shohim njerëz që e bëjnë këtë, merrni si shembull Elastic, dhe OpenSearch [piruni ElasticSearch i AWS] ka qenë mjaft popullor. … Nëse ka projekt Linux [Foundation] ose projekt Apache ose ndonjë gjë në të cilën mund të mbështetemi, ne duam të mbështetemi në të; ne kontribuojmë për ta. Unë mendoj se ne kemi evoluar dhe kemi mësuar si një organizatë se si të jemi një kujdestar i mirë në atë komunitet dhe shpresoj se kjo është vënë re nga të tjerët.”