Blogindlæg -

Computere til kamp for mangfoldighed

Computere og avancerede softwaremodeller kan supplere ledere i eksempelvis beslutninger om ansættelse. Fordelen er, at vi kan gøre op med menneskelig forudindtagethed. Men hvis vi ikke laver algoritmen på sunde data, fejler computeren også.

Af Maj Britt Andersen, HR-direktør Norden og Europa, SAP

Den iranske matematikprofessor, som flygter til Danmark, og ikke kan få arbejde, men i stedet må drive en kiosk, kan i mine øjne være et godt eksempel på forudindtagethed. Det er også dokumenteret, at hvis man sender den samme ansøgning med henholdsvis et dansk og et tyrkisk navn, så får den danske ansøger en langt mere positiv behandling. Uanset at koncernens topledelse skriver under på FN’s charter om ligestilling og inklusion. Det er nemlig ganske menneskeligt at være forudindtaget, og det hjælper os alle sammen hver dag med at sortere information og træffe beslutninger. Eksempelvis definerer vi ukendt og fremmed som farligt og negativt, mens nært og velkendt defineres som positivt og attraktivt. En lang række andre af den slags bias, som det hedder på engelsk, er godt dokumenteret i den psykologiske forskning.

Beslutningsstøtte hjælper os

Vi har begrænsede muligheder for at arbejde med problemet individuelt, fordi hjernen er indrettet, som den er. Men vi kan arbejde med problemet i vores organisationer. Her kan mere videnskabelige og mere faktabaserede beslutningsprocesser afhjælpe problemet på en meget lang række forskellige områder. Beslutningsstøtten har da også udviklet sig voldsomt i takt med digitaliseringen, og vi bruger nu big data og business analytics på en lang række områder. Næste kapitel i den udvikling hedder sandsynligvis machine learning. Computere knuser de store datamængder, software lærer ved at se mønstrene i data og kan derefter anbefale eller træffe beslutninger for os.

Organisationer og mangfoldighed

På HR-området har opgøret med forudindtagethed en direkte tråd til kønsmæssige og etniske ubalancer i vores virksomheder. Hvis en skæv fordeling mellem mænd og kvinder i lederpositioner skyldes forudindtagede beslutningstagere, så er det god bundlinjelogik at gøre op med den.Vi er objektivt interesseret i, at vores organisationer er så mangfoldige som mulige. Vores teams bliver bredere og vores beslutninger bedre. I en accelererende teknologisk og samfundsmæssig udvikling bliver virksomheden belønnet for at have flere ”antenner ude” og have mange forskellige perspektiver til at brydes i dens beslutningsprocesser. Både etnisk, kønsmæssigt, aldersmæssigt og i forhold til seksuel orientering, uddannelse og erfaring bliver organisationer stærkere af mangfoldighed.Machine learning er allerede i brug til at tekstanalysere jobannoncer for at fjerne eventuel kønsspecifikke markører i sproget. Computeren vil så foreslå nogle kønsneutrale ord for at få begge køn til at søge.

Computeren hjælper med at rekruttere

Computeren kan også læse ansøgninger, og den kan sortere ansøgninger. Softwaren leverer tekstanalyse i kombination med analytics. Den gnasker sig gennem titusinder af ansøgninger og efterfølgende ansættelsesforløb på kort tid på en måde, som vores hjerne ikke evner.

Umiddelbart virker det naturligvis skræmmende, hvis computere og software skal rekruttere mennesker til vores virksomheder, og det er heller ikke mit synspunkt. I masser af vidensjob vil vi få softwarerobotter som kolleger, der hjælper os med at indsnævre det synsfelt, som vi skal bruge menneskelige ressourcer på. F.eks. ved at score ansøgninger op mod en række kriterier. Robotterne leverer beslutningsstøtte.

Computere kan tage fejl

Samtidig må man gøre sig klart, at vi selv bestemmer, hvor god computeren og softwaren er til at hjælpe os. Hvis man fodrer sin matematiske model med dårlige data, så får man dårlige resultater. Hele fagligheden omkring mønstergenkendelsen og modelbyggeriet er afgørende for værdien af beslutningsstøtten. Computeres anbefaling er ikke pr. definition videnskabelig, værdifuld og ikke-forudindtaget. Garbage-in giver garbage-out. Vi skal derfor ikke nære blind tillid til matematiske modeller, som også prisbelønnede Cathy O’Neil understreger det i bogen ”Weapons of math destruction”. Et HR-eksempel: Hvis en virksomhed i årevis har diskrimeret kvinder, og ønsker at gøre noget ved det, nytter det ikke noget, at den ukritisk træner algoritmen med de sidste 20 års data og definerer en succesfuld ansættelse som mindst fem års ansættelse med to forfremmelser undervejs.

Betyder det, at vi ikke skal bruge de nye digitale muligheder på HR-området? Nej. Vi skal bare gøre det ordentligt.

Emner

  • Data, Telekommunikation, IT

Kontakt

Ellen Vig Nelausen

Pressekontakt Nordic Communications Manager +45 2923 3234

Susanne Kapfer

Pressekontakt Director Communications, Nordic & Baltic region Pressekontakt +46 (0)8 587 72798