Huawei ar putea lua fața NVIDIA la inteligență artificială. Soluția creativă a chinezilor
Huawei a prezentat oficial Flex:ai, o platformă open-source concepută să optimizeze utilizarea acceleratoarelor AI în centre de date de mari dimensiuni.
Lansată pe 21 noiembrie, soluția se bazează pe Kubernetes și va fi disponibilă prin comunitatea ModelEngine, orientându-se către creșterea performanței prin software într-o perioadă marcată de restricțiile impuse Chinei privind accesul la GPU-uri avansate din SUA.
Potrivit Huawei, Flex:ai poate ajuta chiar la configurarea unui „cip AI analog” cu performanțe declarate de 1.000 de ori mai mari decât cele ale plăcilor Nvidia, sugerând o schimbare strategică către eficiență software într-un context de aprovizionare limitată cu hardware de top.
Un alt obiectiv central al soluției este creșterea gradului de utilizare a resurselor cu aproximativ 30%. Platforma fragmentează GPU-urile sau NPU-urile în instanțe virtuale independente, redistribuind automat sarcinile pentru a evita blocajele și perioadele de inactivitate.
Așadar, Flex:ai poate gestiona simultan atât modele de dimensiuni mici, care altfel ar ocupa inutil o placă întreagă, cât și proiecte de mari dimensiuni, care necesită acces la mai multe acceleratoare în paralel.
Flex:ai, construit pe Kubernetes, adaugă funcții rare în proiectele open-source
Arhitectura Flex:ai extinde funcționalități deja existente în ecosistemul Kubernetes, însă într-o manieră care, potrivit Huawei, nu se regăsește încă în majoritatea implementărilor deschise.
Kubernetes dispune deja de pluginuri dedicate acceleratoarelor sau de programatoare precum Volcano, iar cadre precum Ray permit alocarea fracționată a resurselor.
Flex:ai integrează aceste abordări într-o platformă unificată, adăugând suport nativ pentru procesoarele Ascend NPU, utilizate pe scară largă în infrastructura chineză.
Un punct esențial al platformei îl reprezintă Hi Scheduler, modulul de orchestration care realocă în timp real resursele neutilizate în cadrul clusterelor.
Acesta detectează automat nodurile care rulează sarcini de AI și direcționează resurse suplimentare acolo unde este nevoie, oferind o utilizare mai eficientă a acceleratoarelor existente.
Competiție cu soluții Nvidia, dar și întrebări rămase înainte de lansarea codului
Lansarea Flex:ai amintește de funcții similare oferite de Run:ai, platformă de orchestrare achiziționată de Nvidia în 2024, care permite programare multi-tenant și pre-emptive pentru clustere GPU extinse.
Diferența majoră este că Huawei își concentrează eforturile pe o versiune deschisă și compatibilă cu acceleratoare variate, ceea ce ar putea crește relevanța acesteia în infrastructurile construite pe baza cipurilor Ascend.
Deocamdată, codul sursă nu a fost publicat, iar compania nu a oferit documentație tehnică sau benchmarkuri oficiale.
Printre întrebările cheie rămân nivelul de granularitate al fragmentării GPU/NPU, compatibilitatea cu programatoarele Kubernetes utilizate pe scară largă și disponibilitatea pluginurilor pentru cele mai răspândite tipuri de GPU.
Huawei a menționat totuși că un consorțiu de cercetători din cadrul universităților Shanghai Jiao Tong, Xi’an Jiaotong și Xiamen a contribuit la dezvoltarea instrumentului.
Fără niciun dubiu, Flex:ai reprezintă una dintre cele mai ambițioase încercări ale Huawei de a echilibra lipsa accesului la hardware high-end prin inovații software, o direcție strategică ce ar putea remodela modul în care sunt exploatate resursele de calcul AI în ecosistemul tehnologic chinez.