30 januari, 2026

DeepSeek – en guide för svenska användare

DeepSeek har skakat om AI-världen med öppen källkod och extremt låga träningskostnader. Men är det säkert för svenska företag? Här är allt du behöver veta om kinesiska AI-utmanaren som får storbolagen att tveka.

DeepSeek – en guide för svenska användare

Vad är DeepSeek och varför pratar alla om det?

I januari 2025 skakade en kinesisk AI-startup om hela teknikvärlden. DeepSeek klättrade till förstaplatsen på både Apples och Googles topplistor. Nvidia tappade 16,9 procent på börsen på en enda dag.

Detta är historien om hur ett relativt okänt företag från Hangzhou utmanade antagandet att avancerad AI kräver miljardbudgetar och amerikanska chipledarskap.

Men framför allt är det historien om varför svenska beslutsfattare just nu tvingas ta ställning: Är DeepSeek en genväg till konkurrenskraftig AI, eller en säkerhetsrisk som inte går att ignorera?

💡

DeepSeek i korthet
Kinesiskt AI-labb, grundat 2023 av hedgefondförvaltaren Liang Wenfeng. Öppen källkod. V3 tränad för under 6 MUSD. R1 har 671 miljarder parametrar, 37 miljarder aktiva per fråga. Gratis att använda via webb och app.

Vad är DeepSeek?

DeepSeek är ett kinesiskt AI-forskningslabb grundat 2023 av hedgefondförvaltaren Liang Wenfeng. Företaget utvecklar storskaliga språkmodeller, samma typ av AI som driver ChatGPT och Claude.

Skillnaden ligger i filosofin. Medan OpenAI och Anthropic håller sina modeller proprietära, släpper DeepSeek både kod och vikter som öppen källkod. Det betyder att vem som helst kan ladda ner, granska och modifiera modellerna.

– Det påminner om Linux-revolutionen på 90-talet, säger en svensk AI-forskare. – Plötsligt kunde vem som helst bygga vidare på avancerad teknik utan att betala licensavgifter.

Men det som verkligen fick branschen att haja till var prislappen.

DeepSeek V3, grundmodellen bakom R1, tränade för under 6 miljoner dollar. Det är mindre än en tiondel av vad ChatGPT kostade att utveckla. R1 byggdes sedan vidare på V3 med förstärkningsinlärning till en bråkdel av den kostnaden.

Frågan är om det är för bra för att vara sant.

Hur fungerar DeepSeek?

DeepSeeks framgång bygger på en arkitektur som kallas Mixture of Experts, förkortat MoE. Tekniken är inte ny, men DeepSeek har förfinat den till perfektion.

Tänk dig ett team där varje expert har sitt specialområde. När en fråga kommer in avgör en "dirigent" vilka experter som ska aktiveras. På så sätt behöver inte hela modellen arbeta samtidigt.

DeepSeek R1 har 671 miljarder parametrar totalt. Men för varje fråga aktiveras bara 37 miljarder. Det ger kraftfull prestanda till en bråkdel av beräkningskostnaden.

För att träna V3 använde DeepSeek 2 048 Nvidia H800-chip, en nedgraderad version som tillåts exporteras till Kina trots amerikanska handelssanktioner. Träningen tog 55 dagar. R1 byggdes sedan ovanpå V3 med förstärkningsinlärning.

Men arkitekturen förklarar bara halva historien.

DeepSeek använde reinforcement learning post-training, en metod där AI:n lär sig genom att belönas för bra resultat. Tekniken kräver mindre övervakad träningsdata, vilket ytterligare sänker kostnaderna.

Resultatet är en modell som på många tekniska benchmark-tester presterar i nivå med OpenAI:s o1-modell, till en tiondel av kostnaden.

DeepSeek tidslinje ↕ Scrolla i grafen

DeepSeek vs ChatGPT – vad är skillnaden?

När teknikjournalister testade DeepSeek R1 mot ChatGPT uppstod ett tydligt mönster. I matematiska uppgifter, logiskt resonemang och kodning vann DeepSeek. I kreativt skrivande, bildgenerering och användarvänlighet vann ChatGPT.

Här är nyckelskillnaderna:

Egenskap DeepSeek ChatGPT
Pris Gratis (webb + app) 200 kr/mån (Pro)
Källkod Öppen Proprietär
Styrkor Matematik, kod, logik Kreativitet, bilder, UX
Kontextfönster 1M tokens (webb) 128K tokens
Censur Kinesisk politisk censur Inga politiska filter
Servrar Kina USA

DeepSeek R1 överträffar OpenAI:s o1 på de flesta kodnings- och matematiktest. På Aider-testet, som mäter kodningsförmåga, når DeepSeek V3.1 71,6 procent, högre än GPT-4. Samtidigt är ChatGPT överlägset för bildgenerering, filanalys och koppling till externa verktyg. DeepSeeks gränssnitt känns mer som en betaprodukt jämfört med ChatGPT:s polerade upplevelse.

Men den största skillnaden handlar inte om teknik.

DeepSeek censurerar systematiskt frågor om politiskt känsliga ämnen i Kina. Frågor om Tiananmen, Tibet eller Taiwans självständighet blockeras eller besvaras enligt kinesisk statslinje. ChatGPT har inga motsvarande politiska restriktioner.

För svenska användare blir valet därför inte bara tekniskt. Det är också ett värderingsmässigt ställningstagande.

Är DeepSeek säkert att använda?

⚠️

Dela aldrig känslig information via DeepSeek.
Alla data lagras på servrar i Kina. Enligt kinesisk lag kan myndigheter begära ut all information. Inga personnummer, företagshemligheter eller kunddata.

Detta är frågan som håller svenska IT-chefer vakna om nätterna.

I januari 2025 upptäckte säkerhetsföretaget Wiz en oskyddad ClickHouse-databas hos DeepSeek som exponerade chattloggar, API-nycklar och backend-detaljer. Kort därefter rapporterade NowSecure att DeepSeeks mobilapp skickade data över okrypterade anslutningar.

Tyskland blockerade tjänsten efter att ha konstaterat GDPR-överträdelser. Italien gjorde samma bedömning. Sydkorea stoppade nedladdningar helt.

Problemen är strukturella, inte bara tekniska.

DeepSeeks servrar står i Kina. Enligt kinesisk lag måste alla företag dela information med säkerhetstjänsten om den begär det. Det innebär att allt du skriver i DeepSeek potentiellt kan hamna hos kinesiska myndigheter.

För privatpersoner som testar AI-verktyg kan det vara acceptabelt. För företag som hanterar affärskritisk information är det en dealbreaker.

– Vi kan inte använda verktyg där data potentiellt delas med en främmande stats underrättelsetjänst, förklarar en säkerhetschef på ett svenskt börsbolag.

Uppgifter från Reuters pekar på kopplingar mellan DeepSeek och Kinas militär, något företaget förnekar. Oavsett sanningshalten skapar osäkerheten ett tillit-problem.

Därtill kommer GDPR-problematiken. Personuppgifter som överförs till Kina saknar det skydd som EU-lagstiftningen kräver. För företag som hanterar kunddata är det juridiskt riskabelt.

Sedan dess har responsen blivit global:

Land/organisation Åtgärd Datum
Tyskland GDPR-blockering Januari 2025
Italien GDPR-blockering Januari 2025
Sydkorea Stoppade nedladdningar Januari 2025
US Navy Internt förbud Januari 2025
NASA Internt förbud Januari 2025
Australien Alla myndighetssystem Februari 2025
Danmark Parlamentariska IT-system 2025
Norge Parlamentariska IT-system 2025

I kongressen lades lagförslaget "No DeepSeek on Government Devices Act" (H.R.1121) fram med stöd från båda partierna.

I april 2025 publicerade kongressens Kinakommitté rapporten "DeepSeek Unmasked". Den pekade på kopplingar till kinesisk militärindustri, systematisk informationsmanipulation i linje med KKP:s propaganda samt trolig olaglig distillering av amerikanska AI-modeller.

OpenAI skärpte tonen ytterligare. I februari 2026 skickade företaget ett memo till kongressen med specifika anklagelser: att DeepSeek-anställda systematiskt hade automatiserat åtkomst till amerikanska AI-modeller för att extrahera träningsdata via dolda tredjepartslänkar.

Integritetsmyndigheten har inte utfärdat något formellt förbud i Sverige. Men rekommendationen är tydlig: dela aldrig känslig information via DeepSeek.

DeepSeek i Sverige

Svenska storbolag har valt sida. Och de flesta säger nej.

Scania tillåter endast godkända AI-verktyg som Copilot och ChatGPT Enterprise. DeepSeek finns inte på listan. Autoliv har inte förbjudit nedladdning, men instruerar medarbetare att aldrig dela företagsinformation i verktyget. AstraZeneca använder sin egen ChatGPT-integration och har ingen policy för DeepSeek utanför arbetsplatsen.

Microsoft, som driver många svenska företags molninfrastruktur, förbjöd sina anställda att använda DeepSeek. Förbudet bekräftades offentligt i maj 2025 av bolagets vice ordförande Brad Smith.

Samtidigt väcker DeepSeek intresse i andra kretsar.

Centerpartiet i Malmö föreslog ett förbud mot DeepSeek i kommunala skolor. Motiveringen handlade både om datasäkerhet och oro för censur i undervisningssammanhang.

Det svenska näringslivet hamnar i en kluven sits. Å ena sidan lockar DeepSeeks kostnadseffektivitet och tekniska förmåga. Å andra sidan väger säkerhetsrisker och värdegrundsfrågor tungt.

– Vi måste ta ansvar för vilken data vi delar och hur den används, säger företrädare för branschorganisationen TechSverige. – Det gäller både i offentlig sektor och i näringslivet.

I praktiken innebär det att DeepSeek förblir ett experimentverktyg för privatpersoner och forskare – inte en produktionslösning för svenska företag.

I grannländerna har man gått längre. Danmark och Norge har båda förbjudit DeepSeek på sina parlamentariska IT-system. Sverige sticker ut som ett nordiskt undantag.

Sverigedemokraternas Björn Söder ställde i februari 2025 en skriftlig fråga till justitieministern om att utreda och förbjuda DeepSeek i statsförvaltningen, särskilt i säkerhetskänsliga verksamheter. Något sådant förbud har inte genomförts.

Ericsson har på eget initiativ slutat använda DeepSeek.

Frågan är hur länge den linjen håller om DeepSeek fortsätter leverera tekniska genombrott.

🎓

Behöver ditt team orientering kring AI-risker och policy?
Teknikministeriet erbjuder AI-utbildning för beslutsfattare med fokus på säkerhet, öppna modeller och praktisk tillämpning i svenska organisationer.

DeepSeek V4. Vad vi vet

🔬

V4 i siffror (ej verifierat)
~1 biljon parametrar totalt, ~32 miljarder aktiva. HumanEval ~90%. SWE-bench ~84%. Tre nya arkitektoniska innovationer: Engram, Sparse Attention och Manifold-Constrained Hyper-Connections.

Den 17 februari 2026, det datum som branschbedömare pekade ut som trolig V4-release kring kinesiska nyåret, passerade utan officiellt meddelande. DeepSeek har inte kommenterat tidplanen.

Vad som däremot hände var en tyst uppgradering. Den 11 februari upptäckte användare att DeepSeeks webbgränssnitt och mobilapp plötsligt stödde 1 miljon tokens kontextfönster. Det är en åttafaldig ökning från tidigare 128 000 tokens. Den 14 februari bekräftade DeepSeek uppgraderingen.

En miljon tokens motsvarar ungefär 750 000 ord. Tillräckligt för att analysera hela kodprojekt eller långa dokument i ett svep.

Uppgraderingen gäller webbgränssnittet och mobilappen. API:et ligger kvar på 128 000 tokens.

Kring V4 cirkulerar läckta benchmarks via sociala medier: HumanEval runt 90 procent och SWE-bench runt 84 procent. Siffrorna är inte oberoende verifierade.

Tekniskt pekar DeepSeeks egna forskningsartiklar mot en modell med runt 1 biljon parametrar:

Innovation Beskrivning Status
Parametrar ~1 biljon totalt, ~32B aktiva Ej verifierat
Engram Hashbaserat faktaminne som separerar statisk kunskap från resonemang Publicerat paper
Sparse Attention Effektivare uppmärksamhet för långa kontexter Publicerat paper
Hyper-Connections Ny metod för informationsflöde mellan lager Publicerat paper
HumanEval ~90% Läckt benchmark
SWE-bench ~84% Läckt benchmark

V4 ska ha särskild fokus på autonom kodning. Målet är inte att generera kodsnuttar, utan att hantera hela repositories och förstå komplex programvaruarkitektur.

DeepSeek nyckeltal

Om V4 håller vad läckorna antyder kan det förändra spelplanen igen. Särskilt intressant blir det för utvecklare som arbetar med komplex kodanalys. Möjligheten att köra en så kraftfull modell lokalt, utan att skicka kod till amerikanska molntjänster, kan locka företag med strikta säkerhetskrav.

Men ingen bekräftad release-tidpunkt finns. OpenAI och Anthropic kommer knappast sitta overksamma under tiden.

Så kommer du igång med DeepSeek

Om du vill testa DeepSeek trots säkerhetsvarningarna är det enkelt att komma igång. Här är stegen:

1. Besök webbplatsen Gå till chat.deepseek.com. Du behöver ingen app för att testa grundfunktionerna.

2. Skapa konto Registrera dig med e-post. DeepSeek kräver ingen telefonverifiering för grundanvändning.

3. Välj modell DeepSeek erbjuder flera varianter:

  • R1 – Senaste modellen, bäst på logik och kod
  • V3 – Äldre, men fortfarande kraftfull
  • Chat – Optimerad för konversation

4. Testa försiktigt Skriv aldrig känslig information. Inga personnummer, företagshemligheter eller konfidentiella uppgifter.

5. Jämför resultat Kör samma fråga i ChatGPT och DeepSeek. Notera skillnader i svar, hastighet och tonalitet.

För utvecklare: DeepSeek erbjuder API-åtkomst gratis under introduktionsperioden. Dokumentation finns på platform.deepseek.com.

Om du vill köra modellen lokalt kan du ladda ner vikterna från Hugging Face. Fullversionen av R1 kräver hundratals gigabyte GPU-minne, men kvantiserade varianter fungerar med 32 till 80 GB. Ollama och vLLM förenklar installationen.

Viktig påminnelse: Använd aldrig DeepSeek för arbetsrelaterade uppgifter utan IT-avdelningens godkännande. De flesta svenska företag har explicita regler mot det.

Sammanfattning

DeepSeek har visat att avancerad AI inte kräver amerikanska chipledarskap eller miljardbudgetar. Med öppen källkod, smart arkitektur och intensiv optimering kan en kinesisk startup leverera modeller som konkurrerar med branschledarna.

Men teknisk excellens löser inte säkerhetsproblem.

För svenska användare är bilden tudelad. Som privatperson kan DeepSeek vara ett intressant komplement till ChatGPT – särskilt för matematik och kodning. Som företag är riskerna för stora att ignorera.

GDPR-överträdelser, dataläckage och kopplingar till kinesiska myndigheter gör DeepSeek olämpligt för företagskritisk användning. Därför säger svenska storbolag nej.

Samtidigt kommer DeepSeek fortsätta pressa konkurrenterna. Om V4 släpps med de prestanda som läckorna antyder blir det ännu svårare att avfärda alternativet.

Frågan är inte om DeepSeek är bra. Frågan är om det är bra nog att kompensera för säkerhetsriskerna.

För de flesta svenska företag är svaret: inte än.

Rekommendation
Privatperson: Testa fritt för matematik, kod och logik. Skriv aldrig känslig information.
Företag: Kör DeepSeek lokalt (Ollama/vLLM) om ni vill utnyttja den öppna modellen. Skicka aldrig affärsdata till DeepSeeks servrar i Kina.


Källor: