
Så installerar du DeepSeek R1 lokalt på din dator
Installera Ollama för att köra AI lokalt
För att kunna använda DeepSeek R1 utan internet behöver först verktyget Ollama installeras. Detta möjliggör att AI-modeller körs direkt på datorn istället för att vara beroende av molntjänster. Ollama kan även köra många andra fina AI modeller och absolut en favorit i vår verktygslåda. En annan är att man når den via sina localhost på port 11434 så enkelt att anropa via andra applikationer 😉
Efter installationen så kolla att Ollama körs, ska dyka upp som en ikon längst ner i verktygsfältet bland övriga ikoner.

Installera DeepSeek R1 AI-modellen
Nästa steg är att installera DeepSeek R1-modellen. För att säkerställa att datorn klarar av att köra AI:n bör en lättare version väljas först, exempelvis 1.5B-modellen (1,5 miljarder parametrar). Vi provade den största modellen på en laptop med 64 gig ram och ett 4070 kort från Nvidia. Det gick väldigt långsamt och slukade de mesta resurserna.
Här är en lista på andra Deepseek modeller
1.5B version (minsta):ollama run deepseek-r1:1.5b
8B version:ollama run deepseek-r1:8b
14B version:ollama run deepseek-r1:14b
32B version:ollama run deepseek-r1:32b
70B version (största/smartaste):ollama run deepseek-r1:70b
Så här installerar du modellen
Öppna terminalen på ditt operativsystem t.ex skriv cmd i sökfältet i Windows.
Skriv in följande kommando och tryck
ollama run deepseek-r1:1.5b
Installationen påbörjas, och när den är klar är AI:n redo att användas.
Om mer kraftfulla modeller behövs, kan exempelvis 32B-versionen installeras med:
ollama run deepseek-r1:32b
Skicka en instruktion till AI:n
När installationen är klar kan AI:n testas genom att skriva en fråga i kommandoterminalen. Fråga gärna om Kina 😉
Kör AI-modellen offline
En av fördelarna med att köra DeepSeek R1 lokalt är att AI:n inte läcker information. Detta kan testas genom att koppla bort datorn från Wi-Fi/Ethernet och du kommer kunna köra modellen.
Stoppa och avsluta DeepSeek i Ollama
För att avsluta AI-sessionen helt skrivs kommandot:
/bye
Värdefulla kommandon i Ollama
Dessa kommandon nedan bör du känna till för att ladda in modeller och ta bort modeller. För att t.ex ta bort Deepseek så skriv:
ollama rm deepseek-r1:1.5b
ollama serve
: Startar Ollama-servern på din lokala maskin.
ollama create <modellnamn> -f <Modelfil>
: Skapar en ny modell baserad på en specificerad Modelfil.
ollama show <modellnamn>
: Visar detaljerad information om en specifik modell, inklusive dess konfiguration och parametrar.
ollama run <modellnamn>
: Kör den angivna modellen och öppnar en interaktiv session för användarinteraktion.
ollama pull <modellnamn>
: Laddar ner den specificerade modellen till ditt system.
ollama list
: Visar en lista över alla modeller som för närvarande är nedladdade på ditt system.
ollama ps
: Visar en lista över alla modeller som för närvarande körs.
ollama stop <modellnamn>
: Stoppar en specifik modell som för närvarande körs.
ollama rm <modellnamn>
: Tar bort den angivna modellen från ditt system.
ollama help
: Ger hjälp och information om tillgängliga kommandon och deras användning.