
Metas nya Llama 4-modell kommer tränas på imponerande hårdvara
Meta satsar stort på sin Llama AI-modell och bygger nu en massiv datakluster för att träna den kommande Llama 4. Detta GPU-kluster är större än något annat tidigare och kräver enorma mängder energi – uppskattningsvis 150 megawatt för en kluster med 100,000 H100-chips, vilket är betydligt mer än exempelvis superdatorn El Capitan i USAnationella laboratorier som kräver 30 megawatt. Meta har avsatt upp till 40 miljarder dollar i kapital för att bygga och underhålla datahallar och annan infrastruktur, en ökning på över 42 % jämfört med förra året.
Meta satsar öppet, medan OpenAI och Google håller sina modeller slutna
Till skillnad från OpenAI och Google, som arbetar med slutna AI-modeller, satsar Meta på en öppen strategi. Zuckerberg menar att open-source är mer kostnadseffektivt, anpassningsbart och ger större förtroende och prestanda. Trots säkerhetsoro kring öppna AI-modeller och deras potentiella missbruk, hävdar Meta att deras restriktioner för Llama är tillräckliga även om det är möjligt för vissa användare att kringgå dem. Men är Kina har börjat använda Llama för militärt bruk i form av Chatbit, hur säkert är det då?
En otrolig mängd människor använder AI modellen Llama idag
Meta AI, chatboten baserad på Llama, används redan av över 500 miljoner människor varje månad på plattformar som Facebook, Instagram och WhatsApp. Meta har för avsikt att vidareutveckla denna användning och ser potential för intäktsgenerering genom annonsering i tjänsten, vilket kan göra det möjligt för företaget att hålla Llama-modeller öppna och tillgängliga för utvecklare och användare världen över.
Energi som motsvarar 34 miljoner amerikanska hushåll krävs
Den kraftfulla datorkapacitet som Meta och andra AI-jättar använder kräver enorma mängder energi. En enda modern AI-GPU kan dra upp till 3,7 MWh per år. För ett kluster på 100 000 GPU, som Meta nu bygger, innebär detta en årsförbrukning på minst 370 GWh – tillräckligt för att försörja över 34 miljoner genomsnittliga amerikanska hushåll. Detta väcker frågor om hur företag kan säkerställa en så stor energitillgång, särskilt då nya kraftkällor tar tid att etablera. Även Mark Zuckerberg har sagt att energibrist kan sätta gränser för AItillväxt.
Till exempel behövde Elon Musk använda flera stora mobila generatorer för att driva sitt kluster på 100 000 GPUi Memphis. Google har halkat efter i sina klimatmål och ökat sina utsläpp med 48 % sedan 2019. Eric Schmidt, Googles tidigare VD, har föreslagit att världen tillfälligt kan skjuta klimatmålen åt sidan för att möjliggöra AI-företagens tillväxt och sedan använda AI för att lösa klimatkrisen.
När en analytiker frågade Meta hur företaget hanterar energibehoven för sitt massiva GPU-kluster undvek företagsledningen frågan. Samtidigt har konkurrenter som Microsoft, Google, Oracle och Amazon börjat investera i små modulära kärnreaktorer eller planerar att återstarta äldre kärnkraftverk. Även om dessa satsningar tar tid att realisera, skulle små kärnreaktorer som driver AI-datacenter kunna minska belastningen på det nationella elnätet och bidra till mer hållbar energianvändning i framtiden.
Konkurrensen inom AI trappas upp
Samtidigt utvecklar OpenAI sitt nästa stora AI-system, GPT-5, och har signalerat att det kommer innebära ett betydande tekniskt framsteg. Även Google fortsätter att utmana med sin Gemini-serie av generativa AI-modeller. AI-marknaden är därmed i en intensiv fas av innovation, där Meta, OpenAI och Google alla konkurrerar om att leda utvecklingen.
Kommentera: