Sky-T1 rekordbillig modell att träna
Resonemangsbaserade AI-modeller förändrar spelplanen – och nu kan de tränas för under 450 dollar. Hur kommer Sky-T1 och öppen källkod förändra framtiden för AI?
Öppen källkod utmanar proprietär AI
Det kinesiska AI-företaget DeepSeek har rört om i Silicon Valley med sin senaste AI-modell, R1, som i oberoende tester presterade bättre än ledande modeller från amerikanska j
Tülu 3 – öppen AI-modell som slår DeepSeek v3 och utmanar GPT-4o
Ai2:s nya öppna AI-modell Tülu 3 405B utmanar GPT-4o och överträffar DeepSeek v3 med sin innovativa post-träningsteknik. Med full insyn i kod och data sätter Ai2 en ny standa
Så installerar du DeepSeek R1 lokalt på din dator
Vill du köra Deepsek AI lokalt utan att dela data online? Med DeepSeek R1 och Ollama kan du installera och använda en kraftfull AI direkt på din dator – helt utan internet. Pr
Därför skakar marknaden efter DeepSeeks genombrott
Kinesiska DeepSeek har kastat AI-marknaden i gungning genom att utmana teknikjättarna med en kraftfull AI-modell till en bråkdel av kostnaden. Nasdaq föll och investerare ifråg
Öppen källkod driver Kinas AI-framgångar
Kinesiska AI-modeller utmanar nu USA:s dominans genom att satsa på öppen källkod och egen teknikutveckling. Är detta början på en ny global AI-maktförskjutning?
Att skriva kod med AI utgör en juridisk risk
AI förändrar mjukvaruutveckling, men vilka juridiska risker följer med? Immateriella rättigheter och öppen källkod står i fokus när AI-genererad kod granskas. Hur ska före
Crawl4AI – Öppen källkod för effektiv insamling och strukturering av data för LLM
I dagens AI-drivna värld kräver stora språkmodeller (LLM) som GPT-4 och BERT enorma mängder välstrukturerad data från olika källor för att prestera effektivt i en rad appli
Apple Depth Pro gör om 2d till 3d
Apple har presenterat Depth Pro, en avancerad AI-modell som tar steget långt bortom konventionell djupseende-teknologi genom att skapa detaljerade 3D-djupkartor från en enda 2D-b
AI-modell som lär sig rätta sina egna misstag – Reflection 70B
Hallucinationer är ett vanligt problem hos stora språkmodeller (LLMs) där svaren ibland blir felaktiga, missvisande eller helt ogrundade. Detta kan leda till allvarliga konsekve