Gå direkt till innehåll
När AI får en konstitution. Claude’s Constitution – utvecklad av Anthropic med etiska perspektiv från Vatikanen – ramar in Ann‑Sofie Gustafssons och Edith Quarfordts resonemang.

Blogginlägg -

Alla vägar bär till Rom – även för AI?

AI utvecklas snabbt. Verktygen blir allt mer kraftfulla, mer självständiga och tar plats i områden som tidigare varit tydligt mänskliga: analys, beslutsstöd, planering och kommunikation.


I takt med denna utveckling växer en grundläggande fråga – en fråga vi på SamCert allt oftare återkommer till i samtal med kunder och kollegor:

Vem bär ansvaret när tekniken får större inflytande?

“AI är väldigt bra på att producera – men kan inte bära ansvar.”
– Ann‑Sofie Gustafsson

AI kan resonera – men saknar omdöme

AI är fantastisk på att sammanställa information, identifiera mönster och föreslå lösningar. Men det är viktigt att komma ihåg vad AI faktiskt gör – och inte gör.

“När man ställer frågor till AI får man inte glömma att den bara letar i det den har tränats på.
Det betyder inte att det är sant – bara att det förekommer.”

– Edith Quarfordt

AI saknar ett eget sammanhang. Den förstår inte konsekvenserna i människors och organisationers verklighet. Den har inga egna värderingar – bara mönster från data, och de ramar vi människor sätter upp.

Därför är nästa steg alltid mänskligt.

“Var och en av oss måste fråga sig:
Är det här något jag faktiskt kan ställa mig bakom?”

– Edith Quarfordt

När ett AI‑bolag väljer att skriva en konstitution

Mot den bakgrunden är det intressant att vissa AI‑bolag själva börjar resonera i termer av etik, ansvar och gränser. Ett uppmärksammat exempel är AI‑bolaget Anthropic, utvecklaren bakom språkmodellen Claude.

Anthropic har publicerat ett omfattande etiskt ramverk kallat Claude’s Constitution. Dokumentet beskriver vilka värderingar modellen ska följa, hur den ska resonera i svåra situationer och vilka typer av användning den ska avstå ifrån.

Det ovanliga är inte bara att dokumentet finns – utan hur det tagits fram. Förutom tekniker och forskare har Anthropic tagit in extern etisk och teologisk kompetens, däribland katolska präster och teologer med koppling till Vatikanen.

Det handlar inte om religion som styrsystem. Det handlar om att söka tidlösa etiska principer kring människosyn, ansvar och hur makt bör hanteras.

“Oavsett världsreligion hittar man samma grundtanke:
hur vi förhåller oss till andra människor.”

– Edith Quarfordt

När etik får verkliga konsekvenser

Det som gör Anthropic särskilt intressant är att deras etiska ramverk inte bara är ord på papper. De har också låtit värderingarna få praktiska konsekvenser.

När krav ställdes på att ta bort etiska begränsningar för militär användning av AI – bland annat kring autonoma vapen och omfattande övervakning – valde Anthropic att säga nej. Företaget har hållit fast vid sina etiska “röda linjer”, trots hård kritik och betydande konsekvenser.

Detta visar något avgörande:

Etik är meningslös om den inte påverkar beslut.

Organisationen – där AI faktiskt får konsekvenser

Diskussionen om AI och etik stannar ofta vid individens ansvar eller teknikleverantörernas vägval. Men i praktiken är det organisationer som varje dag fattar beslut om hur AI ska användas – eller när den inte ska användas alls.

“Det handlar inte bara om individen.
Det finns flera nivåer: individen, organisationen och samhället.”

– Ann‑Sofie Gustafsson

När AI används i en organisation är det sällan en enskild persons värderingar som ska styra. Det är verksamhetens gemensamma värderingar, policys, mål och ansvarsfördelning som avgör vad som är acceptabelt.

“Sätter du AI i en organisation är det organisationens värderingar som får avgöra
om användningen är mottagbar eller inte.”

– Edith Quarfordt

Många organisationer befinner sig idag i ett glapp: tekniken finns, men ramarna är otydliga.

AI är inte annorlunda än andra ledningsfrågor

Här blir parallellen tydlig för oss som arbetar med ledningssystem:

  • Vi accepterar inte miljöarbete utan tydliga mål och ansvar
  • Vi accepterar inte informationssäkerhet utan styrning och uppföljning
  • Vi accepterar inte kvalitet utan struktur och ägarskap

Varför skulle AI vara annorlunda?

“Ansvarsfull AI‑användning handlar ytterst inte om teknik.
Det handlar om omdöme.”

– Ann‑Sofie Gustafsson

Detta är också logiken bakom nya standarder och ramverk för AI‑styrning: organisationer behöver sätta ramar, roller och gränser – och följa upp konsekvenser över tid.

Människan som ankare

AI kan vara ett ovärderligt stöd. Men den kan inte ersätta mänskligt ansvar.

“AI ska vara i människans tjänst – inte människan i AIs.”
– Edith Quarfordt

Det är fortfarande människor som måste:

  • göra avvägningar
  • ta ansvar för konsekvenser
  • stå för beslut inför medarbetare, kunder och samhälle

I en AI‑driven verklighet blir därför människans roll inte mindre – utan viktigare.

Inte som bromskloss.
Inte som motståndare till tekniken.

Utan som ankare.

Källor

  • Anthropic – Claude’s Constitution
  • The Observer – The Catholic Priest Who Helped Write Anthropic’s AI Ethics Code
  • CBS News / Technobezz – rapportering om konflikten mellan Anthropic och Pentagon

Relaterade länkar

Ämnen

Kategorier

Regioner

Kontakter