OpenAI po krijon çipin e vet të AI me Broadcom dhe TSMC

foto

OpenAI është një hap më afër zhvillimit të çipit të tij të parë AI, sipas një raporti të ri pasi numri i zhvilluesve që bëjnë aplikacione në platformën e tij rritet së bashku me kostot e kompjuterit cloud.

foto

Prodhuesi i ChatGPT u raportua për herë të parë se ishte në diskutime me disa projektues të çipave, përfshirë Broadcom, në korrik. Tani Reuters po pretendon se një strategji e re harduerike ka bërë që OpenAI të vendoset në Broadcom si partneri i saj i personalizuar i silikonit, me çipin që mund të zbarkojë në 2026.

Para kësaj, duket se OpenAI do të shtojë çipat AMD në sistemin e tij Microsoft Azure, së bashku me ato ekzistuese nga Nvidia. Planet e gjigantit të inteligjencës artificiale për të krijuar një ‘shkrirë’ – një rrjet fabrikash për çipa – janë zvogëluar, sipas Reuters.

Arsyeja për këto lëvizje të raportuara është për të ndihmuar në uljen e kostove të balonimit të aplikacioneve të fuqizuara nga AI. Çipi i ri i OpenAI me sa duket nuk do të përdoret për të trajnuar modele gjeneruese të AI (që është domeni i çipave Nvidia), por në vend të kësaj do të ekzekutojë softuerin e AI dhe do t’u përgjigjet kërkesave të përdoruesve.

Gjatë ngjarjes së tij DevDay London sot (e cila pasoi versionin e San Franciskos më 1 tetor), OpenAI njoftoi disa mjete të përmirësuara që po përdor për të tërhequr zhvilluesit. Më i madhi, API në kohë reale, është efektivisht një modalitet i avancuar i zërit për zhvilluesit e aplikacioneve, dhe kjo API tani ka pesë zëra të rinj që kanë përmirësuar gamën dhe ekspresivitetin.

Tani për tani, tre milionë zhvillues nga e gjithë bota po përdorin API-në e OpenAI (ndërfaqja e programimit të aplikacionit), por problemi është se shumë nga veçoritë e tij janë ende shumë të shtrenjta për t’u ekzekutuar në shkallë.

OpenAI thotë se ka ulur çmimin e argumenteve API (me fjalë të tjera, sa i kushton zhvilluesve të përdorin modelet e tij) me 99% që nga lansimi i GPT-3 në qershor 2020, por ka ende një rrugë të gjatë për të bërë – dhe kjo zakon Çipi i AI mund të jetë një hap i rëndësishëm drejt bërjes së aplikacioneve të fuqizuara nga AI me kosto efektive dhe me të vërtetë të zakonshme.

foto

Kostot e larta të përpunimit të inteligjencës artificiale në cloud janë ende një frenë e dorës për aplikacionet që ndërtojnë mjetet e OpenAI në ofertat e tyre, por disa startup tashmë kanë marrë zhytjen.

Redaktori popullor në internet i videove Veed lidhet me disa modele OpenAI për të ofruar veçori si transkriptet e automatizuara dhe aftësinë për të zgjedhur zërat më të mirë nga videot me formë të gjatë. Një bllok shënimesh me AI i quajtur Granola përdor gjithashtu GPT-4 dhe GPT-4o për të transkriptuar takimet dhe për t’ju dërguar detyrat vijuese, pa pasur nevojë për një bot takimi për t’iu bashkuar thirrjes suaj.

Larg aplikacioneve të konsumatorit, një startup i quajtur Tortus po përdor GPT-4o dhe modelet e zërit të OpenAI për të ndihmuar mjekët. Mjetet e tij mund të dëgjojnë bisedat mjek-pacient dhe të automatizojnë shumë nga administratorët si përditësimi i të dhënave shëndetësore, ndërsa me sa duket përmirësojnë edhe saktësinë e diagnozës.

Duke lënë mënjanë shqetësimet e mundshme të privatësisë dhe halucinacioneve të modeleve të AI, zhvilluesit janë qartësisht të prirur për të shfrytëzuar fuqinë e mjeteve të OpenAI – dhe nuk ka dyshim se modaliteti i tij i zërit me vonesë të ulët dhe biseda ka potencial të madh për shërbimin ndaj klientit.

Megjithatë, ndërsa mund të prisni që së shpejti të flisni me një nga modelet e zërit të OpenAI kur telefononi një dyqan ose linjë shërbimi ndaj klientit, këto kosto të funksionimit të AI mund të ngadalësojnë shkallën e adoptimit – kjo është arsyeja pse OpenAI me sa duket është i prirur të zhvillojë çipin e tij AI më shpejt se sa vonë.