Gå direkt till innehåll
När något känns klart för snabbt är det sällan färdigt – att stanna upp och ifrågasätta är en central del av att bli AI‑kunnig.

Blogginlägg

Morgonsamtal: “Har du skrivit allt det där själv?”

(Teams. Kaffekoppar.)

Edith:
Har du skrivit allt det där själv?

Ann‑Sofie:
Ja… och nej.
Jag har tänkt det – men ett system har hjälpt mig formulera.

Edith:
Mm. För det känns väldigt färdigt.
Nästan för lätt att hålla med om.

Ann‑Sofie:
Och när man ger AI bra underlag –
som ett transkriberat möte och tillgång till sin egen dokumentation –
kan resultatet bli häpnadsväckande bra.

Edith:
Ja. Och det är ju då det blir knepigt.
För texten låter precis som vi.

Ann‑Sofie:
Precis.
Risken är egentligen inte att något blir fel –
utan att vi slutar märka när vårt eget tänkande avslutas.

Edith:
Man jobbar vidare i formuleringarna,
putsar texten, gör den ännu tydligare –
i stället för att ta ställning till resonemanget bakom.

Ann‑Sofie:
Exakt.
Det är där det händer.

Automation bias handlar inte om att systemen tar över besluten.
Det handlar om att de gör det lätt att känna sig klar
innan man faktiskt har tänkt färdigt.

Edith:
Så frågan är kanske inte
“har AI skrivit det här?”
utan
“har vi själva tagit ansvar för det som står?”

Ann‑Sofie:
Där börjar mognaden.
Teknik kan hjälpa oss att formulera väldigt bra –
men omdömet bakom texten kan vi aldrig automatisera.

När det inte märks – och därför blir viktigt

Det som gör automation bias svår att upptäcka är att den inte känns som ett fel.

Den känns som:

  • effektivitet
  • tydlighet
  • framdrift

Vi får något som håller språkligt, strukturellt och ofta även innehållsmässigt.

Och just därför fortsätter vi.

Men i många fall är det inte texten som är problemet.
Det är vad vi inte längre utmanar.

Kort bakgrund – vad menas med automation bias?

Begreppet automation bias uppmärksammades i forskning om hur människor arbetar tillsammans med automatiserade system, bland annat inom flygindustrin och medicinsk beslutsstöd.

Man såg två återkommande mönster:

  • att människor följer rekommendationer från system även när annan information pekar åt ett annat håll
  • att människor missar problem eftersom systemet inte signalerar att något är fel

Det är viktigt att förstå att detta inte är ett tekniskt fel.
Det är en mänsklig, kognitiv effekt – ett sätt vi förenklar beslut i komplexa situationer.

Och den uppstår inte bara i avancerade kontrollrum.

Den uppstår i helt vanliga arbetsflöden:

  • när vi skriver rapporter
  • när vi analyserar organisationer
  • när vi sammanfattar möten
  • när vi tar fram beslutsunderlag

Relaterade länkar

Ämnen

Kategorier

Regioner

Kontakter

Relaterat innehåll

  • AI i miljöarbetet – vad ska vi använda tekniken till och när bör vi avstå?

    Under morgonmötet på SamCert idag hamnade samtalet snabbt i AI.

    Inte för att vi skulle införa nya verktyg – utan på grund av omvärlden.
    I våra nyhets- och sociala medier‑flöden dök bilder upp på en robot som visades upp i Vita huset. Nästan samtidigt rapporterades det om hur den amerikanske senatorn Bernie Sanders argumenterar för kraftigare begränsningar av AI‑utvecklingen, med hänvisn

  • Alla vägar bär till Rom – även för AI?

    När AI blir allt mer kraftfull väcks frågan om ansvar och etik. I denna artikel reflekterar Ann‑Sofie Gustafsson och Edith Quarfordt över Claude’s Constitution – Anthropics etiska ramverk, framtaget med stöd av katolska präster med koppling till Vatikanen – och vad det betyder för människans och organisationens roll i AI‑driven verksamhet.