Vklass × Visma — Strategisk agenda 2026‑03‑29

Vklass
AI-First
Transformation

Utvecklare skriver specifikationer och granskar AI-output — inte kod. Med Claude Code på 80,9 % SWE-bench och Azure DevOps-integration via MCP-servrar kan Vklass dubbla sin leveranshastighet utan plattformsmigrering eller GDPR-risk.

Vklass tar steget mot AI-first development — en kategoridefinerande möjlighet inom utbildnings-SaaS

80,9%
Claude Code SWE-bench
3–5×
Produktivitetsökning
4 pers
= tidigare 12–16
02 / 17

Vad AI-First INTE är — och vad det ÄR

Det finns en fundamental missuppfattning om vad AI-first-utveckling innebär i praktiken 2026.

× AI-First är INTE
Bättre specifikationer + manuell kodgranskning
Autocomplete och kodförslag i IDE
Copilot som skriver boilerplate snabbare
En experimental sidoprocess utanför mainflödet
Något du “provar” utan att mäta resultat
✓ AI-First ÄR
Agentdriven utveckling där AI skriver, testar och itererar kod autonomt
Människor definierar framgångskriterier — AI implementerar
Specs ersätter kod som primär artefakt
Quality gates (tester, typkontroll, linting) som backpressure
Mätbar velocitetsökning från dag 1, uppföljningsbar med DORA-mätvärden
Tidigare arbetsdag
Skriver kod 6–8 timmar/dag
1 feature per sprint per dev
Juniorer skriver boilerplate
Manuell testskrivning
Debug genom att läsa kod
AI-First arbetsdag
Skriver specs 2 tim, granskar AI-output 3–4 tim
3–5 features per sprint per dev
Inga juniorer — AI hanterar implementation
AI genererar tester från specs
Debug genom att förfina specs och constraints
“Development is now less about writing syntax and more about defining rigid prerequisites and system specifications.”
— lopes.id, mars 2026
03 / 17

Metodiken: Spec-Driven Development

Industrin har konvergerat på Spec-Driven Development (SDD) — en strukturerad metodik för hur AI-agenter och människor samarbetar.

1
Definiera
Team skriver strukturerade specs med acceptanskriterier, testscenarier, constraints och arkitekturkrav
2
Generera
AI-agent implementerar mot specs, kör quality gates (tester, typkontroll, linting) automatiskt
3
Iterera
Agenten fixar fel autonomt upp till N iterationer, tills alla gates passerar
4
Granska
Människa granskar kod för arkitekturalignment, edge cases, säkerhet och GDPR
5
Leverera
Standard CI/CD-pipeline. Inga manuella steg utöver godkännandet i steg 4
HITL — Supervised Mode
Human-In-The-Loop för nytt eller högriskarbete. Agenten pausar vid oklara beslut. Används för: databasmigreringar, säkerhetskritiska ändringar, ny arkitektur.
HOTL — Autonomous Mode
Human-On-The-Loop för välförstådda mönster. Agenten kör autonomt och du granskar resultatet efteråt. Används för: bugfixar, nya endpoints, test-generering, refaktorering.
Verkligt exempel: Ett projekt som tidigare tog 2–3 veckor (4 tim/dag) slutfördes på <6 timmar med ~15 commits med Claude Code och SDD-metodiken. “The efficiency gains are staggering.” — lopes.id, mars 2026
04 / 17

Teamstruktur: 4 Utvecklare + AI

Vad som tidigare krävde 12–16 utvecklare kan nu levereras av 4 med rätt kompetens och AI-verktyg. AI-first skapar en optimal teamkomposition där varje roll förstärks av agentdriven implementering.

Tech Lead / AI Orchestrator
Senior profil
Arkitekturbeslut, agent-konfiguration, spec-design, quality gate-design, AI-infrastruktur
Senior Domänutvecklare
Starkast produktkännedom
Spec-skrivning, kodgranskning, affärslogik-validering, GDPR-compliance i kod
Platform Engineer
DevOps-orienterad
CI/CD, testinfrastruktur, databasoperationer, monitoring, säkerhetsskanning
Product / QA Lead
Produktinriktad
Acceptanskriterier, e2e-testdesign, användarvalidering, spec-kvalitetssäkring
“We went from 4 devs to 2 devs + AI and honestly ship faster now. The 2 that stayed are both seniors who can actually review what the AI produces.”
— m2e_chris, r/artificial, februari 2026
Mer värdefullt nu
  • Spec-skrivning (tydlig, testbar, entydig)
  • Arkitektursbedömning och trade-off-beslut
  • Kodgranskning i skala (AI-output skiljer sig från mänsklig kod)
  • Domänexpertis i skola/utbildningsadministration
  • AI-orkestrering och agentskonfiguration
Mindre värdefullt nu
  • Ren kodproduktionshastighet (AI hanterar detta)
  • Boilerplate/CRUD-implementation
  • Manuell testexekvering
  • Rutinmässig debug av kända mönster
05 / 17

AI-First som Strategisk Affärsmöjlighet

AI-first är inte en teknisk preferens utan en affärsstrategisk position. Vklass har redan infrastrukturen — beslutet handlar om att aktivera den.

  • Marknaden rör sig snabbt Organisationer som tidigt adopterar AI-first development sätter standarden för sin kategori. Fördelen tillfaller den som rör sig först, inte den som väntar på ett “perfekt” läge.
  • Konkurrensfördelen är mätbar 3–5× utvecklingshastighet med bibehållen kodkvalitet. Mätbart med DORA-mätvärden och direkt jämförbart med branschstandard.
  • Kategoridefiniering inom utbildnings-SaaS AI-first utbildnings-SaaS är en kategoridefinerande möjlighet. Vklass kan vara den plattform som sätter standarden för sektorn i Norden.
  • Befintliga tillgångar är redan redo Weaviate-vektorer, Neo4j-kunskapsgraf och MCP-servrar är redan byggda. Infrastrukturen finns. Det saknas bara beslutet att aktivera den.
Vad detta initiativ representerar
En strategisk satsning kopplad till affärsmål — inte en teknisk övning utan tydlig ROI och konkurrenspositionering.

Transformationsinitiativ kopplade till mätbara affärsmål har högre genomförandesannolikhet och tydligare succeskriteria.

Framgångskriteria
Velocity: Mätbar ökning av leveranshastighet per sprint
Kvalitet: Bibehållen eller förbättrad kodkvalitet via quality gates
Teamet: Optimal rollsammansättning för AI-first leverans
06 / 17

Git-Platform: Stanna på Azure DevOps

Rekommendation: Migrera INTE till GitHub. Claude Code fungerar utmärkt med Azure DevOps via MCP-servrar. Migrationskostnaden (4–8 veckor) är inte motiverad.
✓ Varför stanna på Azure DevOps
Claude Code fungerar redan via Microsofts officiella MCP-server (@azure-devops/mcp)
Inga migreringskostnader — 4–8 veckor med pipeline-omskrivning och work item-dataförlust
Azure Boards är rikare — sprint-historik, kapacitetsdata, custom processer vs GitHub Issues
Visma-ekosystem — troligen standardiserat på Microsoft-stack
MCP täcker gapet — AI-fördelen med GitHub (Copilot) matchas av Claude Code + MCP
Vad görs istället
  1. Installera Microsofts @azure-devops/mcp server
  2. Konfigurera ado-claude-code plugin för Claude Code-integration
  3. Koppla Work Items → Specs → Agent-implementation-pipeline
  4. Behåll Azure Pipelines, lägg till AI-genererade teststeg
Om migrering ändå väljs Tid Risk
Git-repos (fullständig historik bevaras) 1–2 dagar Låg
Pipelines (måste SKRIVAS OM — annan syntax) 1–2 dagar/komplex pipeline Medel
Work Items (sprint-historik, custom fields försvinner) Varies — smärtsamt Hög
Ej migrerbart: behörigheter, service hooks, wiki, secrets Förloras permanent Kritisk
07 / 17

GDPR-Arkitektur: Tre-Nivåmodellen

Vklass hanterar persondata på minderår iga i skolmiljö — bland de känsligaste kategorierna under GDPR och EU AI Act. Arkitekturen är designad för att aldrig låta persondata nå en AI-modell.

Nivå 1 — Utvecklings-AI
Kodgenerering, Specs, Granskning
Ingen persondata. Använd vilken modell som helst utan begränsning.
Claude Code (Opus 4.6) 80,9% SWE-bench Inga GDPR-bekymmer
Nivå 2 — Produkt-AI
Supporten, Funktionsanalys
Innehåller persondata — anonymiseras INNAN bearbetning. Lokal AI-inferens-pipeline (on-premise) detekterar och ersätter PII med platshållare.
Lokal LLM — Llama/Mistral (lokal GPU-server, skalbar) Lokal GPU-server (on-premise) Lokal LLM (on-premise GPU)
Nivå 3 — Self-Hosted (Framtida)
Maximal Datasuveränitet
För om regler skärps ytterligare. On-premise GPU-server med öppna modeller.
OpenHands (MIT) Qwen/DeepSeek/Llama on-prem
Anonymiseringspipeline
Supportärende (Weaviate)
→ Lokal LLM anonymiserar: namn, personnummer, adresser, telefon, userId, skolnamn
→ Ersätt med <ELEV_1>, <SKOLA_3>
→ Lokal LLM on-premise / Mistral
→ Deanonymisera output
→ Audit-logg allt
Varför Mistral är relevant för Vklass
🇫🇷 EU-native — Franskt företag, GDPR by design
🇸🇪 €1,2 miljarder investering i Sverige (Borlänge/EcoDataCenter, öppnar 2027)
📡 NVIDIA Vera Rubin GPU:er — “Grunden för europeiskt AI-moln”
💰 Kostnad: Codestral $0.30/$0.90 per 1M tokens
Mistral bygger bokstavligen AI-infrastruktur på svensk mark. Stärkast möjliga GDPR-story för en svensk offentlig sektorspartner.
08 / 17

AI Orchestration Stack

Bygg inte ett eget agent-framework — det är en fälla. Ekosystemet rör sig för snabbt. Använd beprövade verktyg och bygg ett tunt limmlager.

KomponentVerktygVarför
Kodningsagent (primär)Claude Code (Opus 4.6)80,9% SWE-bench — bäst i klassen
Azure DevOps-integrationado-claude-code + Azure DevOps MCPBeprövat, dokumenterat workflow
Anonymiserad/kod-data (ej persondata)Claude API / OpenAI (ej persondata)EU-dataresidens, Microsoft DPA
AI för persondataLokal open-source (on-premise)Enda GDPR-säkra alternativet fygger i Sverige
PII-detektionLokal AI-inferens-pipeline (on-premise)Open-source, beprövat, utväckbart
Self-hosted alternativOpenHands (MIT, 65K+ stjärnor)Modellagnostisk, Docker-sandbox, 72% SWE-bench
KunskapsbasBefintlig Weaviate + Neo4jRedan byggt — omedelbart aktiverbar
Quality gatesBefintlig CI + AI-genererade testerTypeScript strict, ESLint, coverage-trösklar
✕ Bygg INTE
✕ Eget agent-framework (använd Claude Code / OpenHands)
✕ Eget PII-system utan lokal verifiering
✕ Eget orkestreringslagret (använd MCP-protokollet)
✓ Bygg (tunt limmlager)
✓ MCP-server: Weaviate → spec-generering
✓ MCP-server: Neo4j → kontextuell berikening
✓ Lokal LLM-pipeline (on-premise GPU) för supportärende-anonymisering
✓ Quality gate-konfiguration för er kodbas
09 / 22

Kod skrivs inte på din dator

Agenter hanterar hela kedjan från idé till produktion
Människor fattar beslut — inte utför arbete
1
Product Intelligence
Support-ärenden
Kundbesp;ällningar
Weaviate-kunskap
Datadog/Raygun
 
PSO godkänner
2
Development Layer
Spec (BMAD)

OpenHands
Agent A: Feature
Agent B: Buggfix
Agent C: Refaktor
PR → Merge
3
Release Pipeline
Dev-DB → Test
→ Staging
→ Production
 
Release notes
Kund-e-post
Supportvideo
Supportartikel
4
Post-release Monitoring
Datadog + Raygun
+ Supportärenden

AI-agent övervakar
Hotfix-spec
A/B-test loop
Feedback → loop
Feedback-loop: varje leverans förbättrar nästa spec — systemet lär sig
10 / 22

LLM-strategi: EU-modeller med lång kontext

Problem:
⚠️ GDPR-regel: Personuppgifter (elever, lärare, vårdnadshavare) får ALDRIG skickas till extern cloud-tjänst — varken Azure, Mistral-cloud eller andra US/EU-moln. Allt med persondata bearbetas on-premise.
RTX 4090 räcker inte för stora modeller med lång kontext. Lösning: molnmodeller — men GDPR-säkra.
Lokal (RTX 4090)
ModellAnvändning
Llama 3.1 8BPII-anonymisering
✓ Inget lämnar nätverket
Embedding-generering, snabba klassificeringsuppgifter
Molnet EU (anonymiserad data only)
LeverantörAnvändning
Mistral 7B / Llama 70B (on-premise GPU)Kodgenerering, lång kontext
Franskt bolag, EU-datacenter, GDPR-compliant
Lokal GPU-server (on-premise)Backup-modell
Microsoft EU Data Boundary, Sverige
Principen: Data-klassificering avgör var bearbetning sker
Rå data (PII)
🔒
Stannar på lokal server
Llama 3.1 8B via Ollama
Anonymiserad data
Får skickas till cloud (inga personuppgifter)
Lokalt GPUal / Azure Sweden
Kod & specs
💻
Inget PII — molnmodell
Kodgenerering OK
Skalbar GPU-infrastruktur — bygg ut utan att ändra ett API-anrop
🟢 Start — Nu
Enterprise GPU (24–48GB VRAM)
Llama 3.1 8B / Mistral 7B
PII-anonymisering
Klassificering, embeddings
Startnivå enterprise GPU
🟡 Steg 2 — Vid behov
1× A100 80GB eller RTX 6000 Ada 48GB
Llama 3.1 70B / Mistral Large (lokal)
Komplex analys med lång kontext
Parallell inferens
Byta/lägga till GPU-server, ingen kodändring
🔵 Full kapacitet
GPU-cluster (vLLM + Kubernetes)
Alla modeller parallellt
Auto-skalning vid belastningstoppar
Inga API-ändringar i koden
Framtidssäkrat för nästa generationsmodeller
Interface: Ollama API (OpenAI-kompatibelt) — byt hårdvara utan att ändra ett enda API-anrop i applikationskoden
11 / 22

Product Intelligence — från data till beslut

KällaBearbetningOutput
Support-ärendenAnonymisering → klassificering → clustering“47 ärenden handlar om betygsexport”
Kundbesp;ällningar (enkel)Automatisk hantering, svar direktKlar, ingen PSO-involvering
Kundbesp;ällningar (komplex)AI-analys + underlagTill PSO med rekommendation + ROI-bedömning
Dev-backlogPrioriterings-AIRankning efter affärsimpact
Datadog/RaygunAnomalidetekteringAlert + auto-genererad bugg-spec
A/B-testdataStatistisk analysRekommendation: behåll/kasta/iterera
Produktrapport — iterativt flöde
AI genererar: Feature-förslag + mockup + motivering
  ↓
PSO granskar, ger feedback
  ↓
AI itererar mockup baserat på feedback
  ↓ (loop tills godkänd)
Godkänd spec → Development Layer
PSO bestämmer.
AI förbereder.
Varje beslut tas av en människa. AI gör analysen, skapar underlaget och itererar på mockups.
12 / 22

Automatisk release-kedja

När kod mergas till main — detta sker automatiskt:
Auto-genererat vid merge
Release notes
AI läser alla commits + PRs sedan förra release → kundvänlig svenska
Kund-e-post (segmenterat)
Segmenterat efter relevanssegment — berörs din skoltyp?
Supportvideo (Playwright + TTS)
Playwright spelar upp ny funktion → AI berättarröst (ElevenLabs EU) → video publiceras
Supportartikel (publiceras automatiskt)
AI skriver artikel från spec + release notes → publiceras i helpdesk
Test → Staging → Production pipeline
Dev-DB (isolerad testdata)
  ↓
Test-miljö (automatiserade tester,
  Semgrep, prestanda)
  ↓
Staging (produktionslik miljö, UAT)
  ↓
Production
Hela kedjan är automatiserad — människan godkänner staging
13 / 22

Post-release: agenten vaktar produktionen

Kontinuerlig övervakning
Datadog (prestanda) ──┐
Raygun (errors)        ├→ AI-agent analyserar
Supportärenden ─────────┘
                ↓
  Normalt: MAIN_OK (inga åtgärder)
                ↓
  Avvikelse: Auto-spec genereras
                ↓
  Hotfix-jobb startas i Dev Layer
A/B-test loop
Feature A vs Feature B i produktion
  → Datadog mäter: konvertering,
    tid, felfrekvens
    → AI analyserar statistisk
      signifikans
      → “B vinner (p<0.05)”
        → Automatisk merge av
          vinnande variant
          → Insikt sparas i
            Weaviate
Feedback-loop: systemet lär sig
Vilka specs fungerade bra?
Kod som godkändes direkt → sparas i Weaviate
Patterns med review-kommentarer?
→ Nästa spec-generering undviker dessa
Features → support-ärenden?
→ Systemet bättre för varje sprint
14 / 22

Infrastruktur — vad som behövs

Azure DevOps stannar. Weaviate/Neo4j används. Ingen migrering.
KomponentVarVad
OpenHandsIntern serverAI-dev-server, Docker, parallella agenter
Ollama + Llama 3.1 8BRTX 4090 (192.168.10.17)Lokal PII-anonymisering
Lokal Llama 70B / Mistral 7BOn-premise GPU-serverStor modell med persondata, lång kontext, kodgenerering
Lokal GPU-server (on-premise)Molnet, SverigeAlternativ stor modell, EU Data Boundary
WeaviateBefintlig (192.168.10.20)Vector store, kunskapsbas, feedback-loop
Neo4jBefintlig (192.168.10.22)Relationsdata, kodbas-graph
Azure DevOpsBefintligGit, PRs, pipelines — ingen migration
SemgrepCI-pipelineOWASP-scanning av AI-genererad kod
PlaywrightCI + video-generationTester + auto-supportvideo
ElevenLabs/Coqui TTSEU-leverantörBerättarröst för supportvideo
Nytt
OpenHands + Mistral EU
Befintligt — ingen ändring
Azure DevOps, Weaviate, Neo4j, RTX 4090
Låg kostnad
Inkrementell investering, inga plattformsmigreringar
15 / 22

Svar på kritiken

“Det tar för lång tid att bygga”
Systemet som bygger Vklass byggs också med AI.
Det är inte ett manuellt projekt på 12 månader. Det är ett iterativt system som startar med en del och växer.
VECKA 1
OpenHands live
Första feature levererad av agent
VECKA 2–4
Pilot
3 features via agenter, DORA-baseline
MÅNAD 2
PII-pipeline
PII-pipeline live, produktrapport-automation
MÅNAD 3
Release-automation
Release notes, artikel, video — automatiskt
MÅNAD 4
Monitoring-loop
Monitoring-loop live, A/B-test-infrastruktur
Varje steg levererar värde. Det är inte “allt eller inget”.
16 / 22

Spec-format (BMAD)

En spec är agentens instruktion. Kvaliteten på specen avgör kvaliteten på koden. Versionshanterat i repot. Agenten läser direkt.
SPEC-2847: Betygsrapport med filtrering — exempel på komplett spec
# SPEC-2847: Betygsrapport med filtrering

## Intent
Lärare behöver kunna filtrera betygsrapporten per kurs och datum
för att snabbt hitta specifika elevers resultat.

## Scope
- In:  Filtreringsgränssnitt i befintlig betygsvy
- Out: Export-funktion, historiska betygsjämförelser

## Acceptance criteria
- [ ] Filter "Kurs" visar aktiva kurser för inloggad lärare
- [ ] Filter "Datum" stödjer from/to-intervall
- [ ] Resultat uppdateras utan sidomladdning
- [ ] Fungerar med > 500 elever utan märkbar fördröjning

## Quality gates  (körs automatiskt i CI)
- [ ] Alla befintliga tester gröna
- [ ] Inga TypeScript-kompileringsfel
- [ ] Semgrep OWASP-scan utan kritiska fynd
- [ ] Prestanda: < 300ms P95 (befintliga lasttest-ramverk)

## Constraints
- MSSQL 2019, inga schema-ändringar utan DBA-godkännande
- Bakåtkompatibelt API
- GDPR: inga personnummer i URL-parametrar
Intent
Vad som ska uppnås — agenten förstår affärssyftet
Acceptance criteria
Testbara villkor — agenten validerar själv innan PR
Quality gates
CI blockerar merge vid kritiska OWASP-fynd
17 / 22

Konkreta verktyg — vad som är bäst just nu

Ingen migrering av Azure DevOps krävs — Claude Code fungerar fullt ut via MCP-server. Alla verktyg nedan integreras direkt i befintlig stack utan plattformsbyte.
OmrådeVerktygVarför
Primär AI-kodagentClaude Code (Opus 4.6)Bäst SWE-bench (80,9 %), autonom, Azure DevOps-kompatibel
IDE-integrationCursorSnabbast inline-komplettering, kombineras med Claude Code
Spec-formatBMAD + ADRAgentläsbart, strukturerat — agenten implementerar direkt
CI/CDAzure DevOps (befintlig)Ingen migration behövs — MCP täcker gapet
SäkerhetsscanningSemgrep (OSS) + SonarQubeOWASP-täckning, CI-integration, körs automatiskt
TestgenereringClaude Code + befintliga ramverkAgenten skriver testerna från spec automatiskt
PII-anonymiseringLokal Llama 3.1 8B (RTX 4090)On-premise, GDPR-säkert, redan på plats
Molnmodell (anon. data)Lokal GPU-server (on-premise)EU-data zone, GDPR-compliant, Microsoft DPA
On-premise stor modellLlama 3.1 70B / Mistral 7B (on-premise GPU-server)EU-bolag, EU-datacenter, bygger i Sverige 2027
CI/CD med AI-gates — Azure DevOps pipeline
stages:
  - AIGenerate:  claude --print "Implement spec at docs/specs/$(SPEC_FILE)"
  - Tests:       dotnet test && dotnet build --no-restore
  - Security:    semgrep --config=owasp  # OWASP-scanning
                 dotnet-sonarscanner     # SonarQube
  - AIReview:    claude --print "Review diff: security, GDPR, architecture"
18 / 22

Spec-ramverk — hur en spec ser ut

BMAD Spec-template — Markdown i /docs/specs/
# SPEC: [Feature name]
## Intent
[Vad ska uppnås? Affärsvärde?]

## Scope
- In:  [vad ingår]
- Out: [vad ingår INTE]

## Acceptance criteria
- [ ] AC1: [testbart villkor]
- [ ] AC2: [testbart villkor]

## Quality gates
- [ ] Alla unit tests gröna
- [ ] Coverage > 80%
- [ ] TypeScript-kompilering utan fel
- [ ] Ingen regression i befintliga API-tester
- [ ] GDPR-review: inga PII i loggar

## Constraints
- Databas: MSSQL 2019, inga breaking schema changes
- API: Bakåtkompatibelt
- Prestanda: < 200ms P95

## Test scenarios
1. Normalfall: [...]
2. Felfall: [...]
3. Edge case: [...]
Varför spec-format är kritiskt
Intent: Vad som ska uppnås — agenten förstår affärssyftet
Scope: Vad som INTE ingår — förhindrar scope creep
Acceptance criteria: Testbara villkor — agenten validerar själv
Quality gates: Automatiska trösklar — CI blockerar vid fel
Constraints: Tekniska gränser — ingår i agentens kontext
Test scenarios: Edge cases — agenten genererar tester från dessa
Nyckelinsikt: En spec är agentens instruktion. Kvaliteten på specen avgör kvaliteten på koden. En dålig spec ger dålig kod — det är inte agentens fel, det är spec-skribentens.
ADR — alternativt spec-format
Architecture Decision Records — varje feature = en ADR med kontext, beslut, konsekvenser och acceptanskriterier. Claude Code läser ADR:n och genererar implementation direkt. Används redan av många team.
19 / 22

Databas 1,7 TB — Säker Agenthantering

1,7 TB produktionsdata med personuppgifter på elever kräver extrem noggrannhet. AI-agenter ska ALDRIG direkt exekvera migreringar mot produktion.

Kritisk regel: Alla databasoperationer klassificeras som “Supervised (HITL)” i alla AI-first-metodiker — hög risk, svår att reversera, dataintegritet kritisk.
Skyddsåtgärder (6-stegsprocess)
  1. Agent genererar migrerings-SQL i sandbox-miljö
  2. Migreringen körs mot klon/staging med produktionsskalad data
  3. Prestandatestning mot 1,7 TB testdatafil
  4. Mänsklig granskning av migrationsplan + exekveringsplan
  5. Manuell godkännandeport innan produktionsexekvering
  6. Automatiserad rollback-kapabilitet förberedd
Testautomatisering med AI
TesttypAI-kapabilitet
Enhetstester80%+ genereras från specs
IntegrationstesterAI genererar scaffolding och mocks
E2E-testerPlaywright/Cypress från specs
PrestandatesterAI genererar lasttest-skript
SäkerhetstesterSAST/DAST, OWASP LLM Top 10
Säkerhetsautomatisering i CI/CD
OWASP LLM Top 10
Automatisk kontroll i CI-pipeline för AI-specifika säkerhetsrisker
GDPR-regelkontroll
Custom-regler: PII-exponering i kod, loggningspraxis, dataretention
Beroendeskanning
Snyk/Dependabot automatiserat + AI-förstärkt granskning
20 / 22

Roadmap: Dag 1 → Vecka 1 — Konkreta åtgärder

Dag 1 — Konkreta åtgärder
  1. Installera Claude Code CLI för hela dev-teamet
    npm install -g @anthropic-ai/claude-code && claude login
  2. Skapa SPEC-template i repot under /docs/specs/TEMPLATE.md
  3. Välj pilot-feature — isolerad ny feature, inte refaktor. Krav: väldefinierad, testbar, < 2 veckors arbete
  4. Konfigurera Azure DevOps MCP-server för Claude Code
    .claude/settings.json → azure-devops MCP
  5. Sätt upp lokal Llama-tjänst på RTX 4090 via Ollama
    ollama pull llama3.1:8b
  6. Definiera DORA-baseline: deployment freq, lead time, MTTR, change failure rate
Vecka 1 — Leveransplan
DagAktivitetOutput
MåndagClaude Code-installation + onboardingAlla devs kan köra lokalt
TisdagVälj pilot-feature, skriv BMAD-specSpec klar för granskning
OnsdagKör Claude Code mot spec, granska outputFörsta AI-genererade PR
TorsdagSätt upp lokal Llama för PII-anonymiseringAnonymiseringstjänst live
FredagMät: tid spec→PR vs historisk baselineDORA-baseline dokumenterad
McKinsey/QuantumBlack, feb 2026: “Build the end-to-end factory from day one. Interrupting mid-workflow destroys the speed advantage.” Starta piloten omgående — varje vecka av fördröjning är en vecka av konkurrensfördelar man missar.
21 / 22

Ärliga Trade-offs

✓ Vad ni vinner
3–5× utvecklingshastighet med optimal teamkompositionMätbar med DORA-mätvärden, direkt jämförbar med branschstandard
Konsekvent kodkvalitetAI har inte dåliga dagar, skriver inte förhastad kod på fredagseftermiddag
Snabbare respons på supporten-mönsterWeaviate-analys → insikter → beslut på timmar istället för veckor
Datadriven feature-prioriteringBefintlig Weaviate-data ger direkt värde
⚠ Vad ni ger upp
Junior-pipelineAI hanterar grundnivå-arbete. Inget naturligt lärlingsspår. Mitigera: senior-mentorskap, spec-skrivning som kompetens.
Djup kodfamiljaritetNär AI skriver 70% av koden känner ingen varje rad. Mitigera: bra specs och arkitektur-docs.
Gammal processens förutsägbarhetAI-agenter producerar ibland oväntade resultat. Quality gates är säkerhetsnätet.
LeverantörsberoendeBeroende av Anthropic + Microsoft. Mitigera: OpenHands som open-source fallback.
Det strategiska valet: AI-first är inte ett projekt — det är en ny arbetsmodell. Organisationer som inför den tidigt får konkurrensfördelar som kompounderar över tid. Quality gates och tydliga specs är säkerhetsnätet som gör omställningen hanterbar.
22 / 22 — Avslutning

Tid för Beslut

Infrastrukturen är redo. Metodiken är beprövad. Teamet kan vara på plats. Det enda som krävs är fyra beslut idag.

Enas om 4-personers team
Commit till Spec-Driven Development
Stanna på Azure DevOps + MCP
Godkänn Claude Code-licenser
Kostnad år 1 ~$1 200 Claude Code (4 licenser) + lokal GPU-infra-kostnad
Output år 1 Ekvivalent med 12–16 pers. 3–5× velocity. Mätbart till Visma.
Vklass AI-First Strategi — 2026‑03‑29