Kinas utvecklar AI över flera datacenter och GPU-arkitekturer
Kina har tagit ett stort steg inom artificiell intelligens genom att utveckla en generativ AI-modell (GAI) som tränas över flera datacenter och GPU-arkitekturer, enligt industriexperten Patrick Moorhead. Detta är ett betydande genombrott, särskilt med tanke på den tekniska komplexiteten i att använda olika GPU-system inom ett enda datacenter, och än mer i geografiskt spridda datacenter. Moorhead, chefanalytiker vid Moor Insights & Strategy, delade nyheten på X (tidigare Twitter) efter att ha fått insyn i utvecklingen under ett möte.
Tekniken bakom träningen över flera GPU-arkitekturer
Tekniken att träna GAI-modeller över flera platser och arkitekturer är avgörande för Kinas fortsatta AI-utveckling, särskilt då amerikanska sanktioner har begränsat deras tillgång till de mest kraftfulla chipsen. Nvidia har skapat en nedbantad version, H20, som följer de restriktioner Washington satt upp, men även dessa chip riskerar att förbjudas, vilket skapar ytterligare osäkerhet för kinesiska teknikföretag.
Amerikanska sanktioner driver på innovation
För att motverka chipbristen har kinesiska forskare utvecklat metoder för att kombinera GPUfrån olika tillverkare i ett enda träningskluster. Detta inkluderar att mixa högpresterande chip som Nvidia A100 med mindre kraftfulla, men mer tillgängliga alternativ som Huaweis Ascend 910B eller Nvidias H20. Trots att denna teknik historiskt sett har inneburit effektivitetsförluster verkar Kina ha löst problemet, vilket visas genom framgången med att träna en GAI-modell över flera datacenter.
Kombinerar högpresterande och enklare GPU
Kombinationen av högpresterande och enklare GPU, som både Huawei och Nvidia tillhandahåller, ger kinesiska forskare möjlighet att maximera sina resurser trots sanktionerna. Tidigare har liknande försök lett till stora effektivitetsförluster, men nu verkar forskarna ha övervunnit detta hinder. Det är en viktig milstolpe som gör att Kina kan fortsätta utveckla avancerad AI-teknik utan tillgång till den senaste hårdvaran från väst.
Lösningen på effektivitetstapp vid blandad GPU-användning
Att effektivt träna AI över olika GPUoch platser har varit en utmaning, eftersom varje typ av chip har olika kapaciteter och funktioner. Traditionellt har detta lett till betydande ineffektivitet, men genom att lösa detta problem har Kina visat att det är möjligt att fortsätta sin AI-utveckling trots hårda yttre restriktioner. Denna framgång signalerar en ny fas i hur AI-teknik kan tränas och utvecklas, även under svåra förhållanden.
Kinas beslutsamhet att fortsätta sin AI-utveckling
Detta genombrott visar på Kinas beslutsamhet att fortsätta sin AI-utveckling trots politiska och tekniska hinder. Som Huawei uttryckt det: Kina kommer att hitta sätt att driva sin AI-agenda framåt, trots de restriktioner som införts. Nödvändighet driver innovation, och detta senaste framsteg är ett tydligt exempel på detta.
Kommentera: