Gå direkt till innehåll
Vem tar ansvar för språkmodellerna?

Pressmeddelande -

Vem tar ansvar för språkmodellerna?

Under senare tid har vi sett flera språkmodeller lanseras, som till exempel BERT och ChatGPT. Men hur säkra är dessa modeller egentligen? Det diskuteras i WARA Media & Language-poddens senaste avsnitt.

Språkmodeller tränas på enorma mängder data och det är den datan som avgör hur bra modellen blir och vad den lär sig. Då modellerna tränas på historiska data och data som är offentligt tillgänglig från internet och sociala medier är det viktigt att kontrollera modellen och vara medveten om vilka fördomar som kan utvecklas i processen. Det kan finnas risker att modellerna visar sig vara rasistiska, sexistiska och stereotypa.

Ansvarsfull AI fokuserar på att utveckla AI-modeller på ett ansvarsfullt sätt, till exempel genom att minimera risken för fördomar i språkmodeller. Det som är utmanande med de språkmodeller som finns tillgängliga idag är att de har tränats av stora företag där dataseten inte är offentliga så vi vet inte vad som finns i den data som används och hur den kontrolleras menar forskarna Henrik Björklund och Hannah Devinney från Umeå Universitet.

“Vi vill inte ha självkörande bilar som kör över cyklister eller algoritmer som bedömer låne- eller jobbansökningar på ett orättvist sätt”, säger Henrik Björklund, docent vid Umeå universitet.

En annan aspekt som man behöver vara vaksam på är sanningsinnehållet i det som

språkmodellerna producerar. Informationen kan se helt korrekt ut, med hänvisningar till olika källor, men i själva verket är innehållet helt fabricerat utan någon som helst sanning. Därför är det alltid viktigt att vara kritisk och faktagranska det som modellerna producerar, detta kallas för “human in the loop”.

“Det kan slå väldigt fel om man litar blint på vad språkmodellerna anger, till exempel om man använder svaret på hur en akut sjuk eller skadad person bör behandlas,“ tillägger Hannah Devinney doktorand vid Umeå universitet.

GPT-SW3 är den största språkmodellen baserad på nordiska språk och har tränats av WASP genom WARA Media & Language med partners som AI Sweden, Rise och NVIDIA. Arbetsgruppen har konsekvent dokumenterat och offentliggjort vilken data språkmodellen har tränats på i en strävan efter transparens och pålitlighet. Modellen har även blivit nominerad till “Best Use of Tech” av Tech Awards Sweden.

“Med initiativ som detta kan vi göra den nya tekniken relevant för fler, samtidigt som vi minskar risken för att redan utsatta grupper kommer i kläm.” säger Johanna Björklund.

Den grundforskning som sker inom WASP har enorm potential att bidra till en positiv och hållbar samhällsutveckling. Men i många fall är det inte teknisk prestanda som hindrar nyttiggörande av resultaten, utan frågetecken kring vilka konsekvenser de skulle ha för medborgare och samhälle. En längre intervju på temat finns i WARA Media & Language Podcast som släpps den 14 mars.


För frågor och intervjuer kontakta:

Ivana von Proschwitz

WARA Media & Language Community Manager

ivanavp@cs.umu.se

070-144 39 41


Information talespersoner:

Henrik Björklund

Henrik är docent vid Umeå universitet. Han doktorerade i datavetenskap vid Uppsala universitet. Direkt därefter arbetade han ett antal år i Tyskland med logiska formalismer och algoritmer för hierarkiska databassystem. Sedan han kom till Umeå universitet har han arbetat med grundläggande metoder för språkteknologiska tillämpningar, och med jämlikhetsaspekter inom språkteknologi.

Hannah Devinney

Hannah arbetar som doktorand på Umeå universitet, på institutionen för datavetenskap och på Umeås centrum för genusstudier. Hen har en kandidatexamen i datavetenskap, lingvistik och franska från Trinity College Dublin (Irland) och en masterexamen i tal- och språkteknologi från University of Edinburgh (UK). Hens pågående forskning fokuserar på att förstå hur maktstrukturer och fördomar manifesterar sig i de datamängder som används för att träna språkteknologiska modeller och på att utveckla metoder för att identifiera och motverka dessa mönster, med slutmålet att begränsa den skada ojämlika AI-system kan orsaka.

Johanna Björklund

Johanna Björklund är docent på Umeå universitet på institutionen för datavetenskap. Hennes forskning är på områdena semantik, människoliknande analys av multimodala datamodeller samt inkluderande bilder, ljud, video och text. Hon är även medgrundare av mediateknikbolagen Codemill, Adlede, och Accurate Player.


Relaterade länkar

Ämnen

Kategorier


The Wallenberg AI, Autonomous Systems and Software Program (WASP) är Sveriges största enskilda forskningsprogram i modern tid. WASPs vision är excellent forskning och kompetens inom artificiell intelligens, autonoma system och mjukvara till gagn för svensk industri.

Kontakter

Natalie Pintar

Natalie Pintar

Presskontakt Kommunikationsansvarig WASP +46 (0)700 89 64 97

Relaterat innehåll

Wallenberg AI, Autonomous Systems and Software Program

Wallenberg AI, Autonomous Systems and Software Program, WASP, är Sveriges största enskilda forskningsprogram i modern tid. Programmet skapar en plattform för akademisk forskning och utbildning i nära samarbete med ledande svensk teknikintensiv industri.

Forskningen innefattar artificiell intelligens och autonoma system som verkar i samarbete med människor och som anpassar sig till sin omgivning med hjälp av sensorer, information och kunskap och skapar intelligenta system av system.

Programmet är ett samarbete mellan Umeå universitet, KTH, Linköpings universitet, Lunds universitet samt Chalmers tekniska högskola. WASP finansieras av Knut och Alice Wallenbergs stiftelse med 4,9 miljarder kronor för perioden 2015-2031. Utöver det bidrar universiteten och industripartners till programmet med 1,3 miljarder kronor.

WASPs vision är excellent forskning och kompetens inom artificiell intelligens, autonoma system och mjukvara till gagn för svensk industri.

Wallenberg AI, Autonomous Systems and Software Program