Gå direkt till innehåll

Nyhet -

SamCert föreläser för ett 80‑tal skolledare om AI i skolans vardag – möjligheter, gränser och nytt ansvar

På inbjudan av en av SamCerts kunder höll SamCerts vd Ann‑Sofie Gustafsson en uppskattad föreläsning om hur AI påverkar skolans vardag. Ett 80‑tal skolledare och rektorer deltog och fick en guidning genom de nya möjligheterna – men också de skärpta krav som följer av EU:s kommande AI‑regelverk.

Redan idag finns AI i skolans administration: i mejlen, dokumenten, planeringen och kommunikationen. Samtidigt förändras lagstiftningen i snabb takt. Föreläsningen handlade om just detta: Vad är okej att använda AI till? Vad är förbjudet? Och vilket ansvar har huvudman och rektor när AI blir en naturlig del av arbetet?

AI börjar inte med tekniken – den börjar med människan

Ann‑Sofie inledde med att placera AI‑utvecklingen i ett mänskligt sammanhang. AI‑revolutionen är inte i första hand en teknisk fråga, utan ett skifte som väcker klassiska frågor om risker, möjligheter och ansvar.

För skolans värld innebär det två parallella linjer:

  • stora möjligheter till effektivare administration
  • nya skyldigheter när det gäller integritet, transparens och styrning

Utgångspunkten är EU:s nya AI Act, som stegvis började gälla från 2024. Lagen är riskbaserad: ju större påverkan ett AI‑system har på individens rättigheter, desto tuffare krav ställs.

Ann‑Sofie beskrev tre globala strategier:
USA som driver snabb innovation, Kina som använder AI för omfattande övervakning – och Europa som sätter människors integritet främst.

EU fortsätter en lång tradition av att värna individens rättigheter. Att vi reglerar AI är egentligen en naturlig fortsättning på den linjen, sa hon.

Fyra risknivåer – och en glidning som många missar

AI‑förordningen delar in AI‑system i fyra risknivåer:

  • Oacceptabel risk, system som förbjuds helt – som social scoring eller realtidsövervakning i skolmiljö.
  • Hög risk, system som får användas men med mycket stränga krav, exempelvis AI som behandlar elevhälsa eller påverkar beslut som rör elever.
  • Låg och minimal risk, vilket omfattar vardagliga verktyg som skrivstöd, språkmodeller, spamfilter och planeringshjälp – så länge de inte hanterar känslig data.

När AI kopplas till känsliga personuppgifter lyfts risknivån direkt. Då riskerar man att bryta mot lagen, förklarade Ann‑Sofie.

Hon lyfte också den “osynliga gränsförflyttningen”:
Ett verktyg som först bara hjälper till med formuleringar kan snart förväntas analysera frånvaro, föreslå åtgärdsprogram eller skapa underlag för utvecklingssamtal.

Det är ofta där felen uppstår – när AI sakta glider över i högrisk utan att någon riktigt märker det.

AI‑kunnighet blir ett nytt krav i skolan

En viktig del av föreläsningen handlade om AI literacy, AI‑kunnighet. AI Act slår fast att de som använder AI‑system måste förstå vad de gör, hur resultaten bör tolkas och vilka risker som finns.

För skolor innebär det att huvudman, rektor och personal behöver utbildas för att kunna:

  • tolka AI‑genererade resultat
  • förstå när risknivån förändras
  • avgöra när AI inte får användas
  • ställa rätt krav på leverantörer

Ju mer vi använder AI, desto mer måste vi förstå det. Här vilar ett stort ansvar på skolan – både som arbetsgivare och som utbildningsmiljö, sa Ann‑Sofie.

ISO 42001 – ett nytt ramverk för styrning av AI

För att möta de ökande kraven pratade Ann‑Sofie även om ISO 42001, den första internationella standarden för ledningssystem för AI. Standarden tar upp områden som:

  • rättvisa
  • ansvarsskyldighet
  • transparens
  • robusthet
  • säkerhet och uppföljning

AI är inte en programvara som går från A till B. Modellerna lever och förändras. Därför behöver vi ledningssystem som gör det möjligt att följa upp och styra utvecklingen, förklarade hon.

Hon gav även exempel på hur stora språkmodeller nyligen manipulerats i statligt stödda spionageprojekt – en tydlig signal om varför struktur och säkerhet är nödvändigt.

Sverige satsar samtidigt på säkrare AI‑miljöer

Mot slutet tog Ann‑Sofie upp aktuella initiativ, som arbetet med en nationell språkmodell för offentliga aktörer, byggd i en säker datamiljö i Linköping, så att känslig offentlig information inte behöver lämna landet.

Trots riskerna betonade hon sin optimism och vision om Human‑Centered AI – AI i människans tjänst.

Det är faktiskt lättare att träna ett AI‑system än att träna människor, sa hon med ett leende.

Boktips
För skolpersonal tipsade hon bland annat om Johan Falks bok AI för lärare.

Om SamCert

SamCert stöttar företag att införa ansvarsfull AI, bygga ledningssystem enligt ISO 42001, stärka informationssäkerhet och uppfylla kraven i AI Act, NIS2 och GDPR. Genom utbildning, rådgivning och digitala verktyg hjälper SamCert organisationer att använda AI på ett tryggt, säkert och lagligt sätt.

Relaterade länkar

Ämnen

Kategorier

Regioner

Kontakter