Gå direkt till innehåll

Blogginlägg -

AI i verksamheten – vad bör styrelse och VD säga ja till?

AI diskuteras i dag i nästan varje ledningsgrupp och styrelse. Förväntningarna är höga: effektivisering, bättre beslutsunderlag och ökad konkurrenskraft.

Samtidigt ökar riskerna – inte minst kopplade till ansvar, efterlevnad och förtroende.

Den avgörande frågan för styrelse och VD är därför inte vilka AI‑verktyg organisationen ska använda, utan:

Vilka arbetsuppgifter är lämpliga för AI‑stöd – och vilka kan skada verksamheten om de hanteras fel?

Börja i rätt ände: arbetsuppgiften, inte tekniken

AI skapar värde när den används där:

  • nyttan är tydlig
  • konsekvensen vid fel är begränsad
  • ansvar och granskning är definierade

Ett enkelt sätt att sortera är att börja med följande kontrollfrågor.

Styrelsens checklista: när är AI ett rimligt stöd?

En arbetsuppgift är ofta lämplig för AI‑stöd om:

  • den är återkommande och strukturerad
  • den bygger på befintlig information
  • det finns tydliga ramar för resultatet
  • uppgiften är tidskrävande men inte strategiskt avgörande i sig
  • AI används för analys, sammanfattning eller första utkast
  • resultatet alltid granskas av människa

👉 Uppgifter som uppfyller flera av dessa kriterier innebär normalt låg affärsrisk.

Men för styrelse och VD räcker det inte att titta på effektivitet.
Nästa steg är att bedöma konsekvensen om AI används fel.

Grön, gul eller röd AI‑användning – ett beslutsstöd för ledning och styrelse

Nedan modell hjälper till att skilja mellan acceptabel, kontrollerad och olämplig AI‑användning, inspirerad av risk‑ och styrningsprinciper i ISO/IEC 42001.

🟢 GRÖN – AI‑stöd med låg verksamhetsrisk

Typ av arbete Styrelsens perspektiv
Sammanfattningar, analyser, utkast Effektivisering utan ansvarsförskjutning
Strukturering av dokumentation Låg konsekvens vid fel
Förberedande underlag Mänskligt beslut kvarstår

Styrprincip:
AI tillåts brett, med grundläggande krav på granskning.

🟡 GUL – AI‑stöd som kräver styrning och kontroll

Typ av arbete Affärsrisk
Underlag till strategiska beslut Felaktiga slutsatser
Risk‑ och konsekvensanalyser Missade eller feltolkade risker
Tolkning av regelverk och standardkrav Bristande efterlevnad
Intern kommunikation med stor påverkan Förvirring, fel signaler

Styrprincip:
Tydlig ansvarig, dokumenterad användning och fastställda ramar för hur AI får användas.

🔴 RÖD – AI‑användning som kan skada verksamheten

Typ av arbete Potentiell skada
Juridiska bedömningar och avtal Rättsliga och ekonomiska konsekvenser
Arbetsmiljö‑ och säkerhetskritiska beslut Personskador
Rekrytering och individbedömningar Diskriminering, förtroendeförlust
Automatiserade beslut utan mänsklig kontroll Otydligt ansvar
Kommunikation till myndigheter Sanktions‑ och reputationsrisk

Styrprincip:
AI får inte ersätta mänskligt ansvar eller beslutsfattande.

Vad detta innebär för styrelse och VD

AI är inte främst en IT‑fråga – det är en styrnings‑ och ansvarsfråga.
Styrelsens roll är att säkerställa att:

  • AI används där den stärker verksamheten
  • ansvar och beslut aldrig ”delegeras” till teknik
  • risker bedöms utifrån konsekvens, inte nyhetsvärde
  • AI‑användning ligger i linje med bolagets värderingar, mål och regelverk

Detta synsätt ligger helt i linje med både ISO‑krav och den kommande AI‑förordningen, där fokus ligger på ansvar, transparens och mänsklig kontroll.

Sammanfattning för beslutsfattare

  • Alla AI‑initiativ behöver inte stoppas – men alla behöver inte tillåtas
  • Grön/gul/röd‑logik ger styrelsen ett enkelt styrverktyg
  • AI ska stötta arbetet, inte ta över ansvar

Vill ni ha stöd i att:

  • mappa er verksamhet mot grön/gul/röd
  • ta fram en styrelseförankrad AI‑policy
  • eller koppla AI‑användning till ert ledningssystem

är ni välkomna att höra av er.

Vänliga hälsningar,
Ann‑Sofie Gustafsson
SamCert AB

Relaterade länkar

Ämnen

Kategorier

Regioner

Kontakter