Blogginlägg -
AI Bias -så blir snedvriden data en dyrköpt upplevelse
Den som inte designat en IoT-sensor kanske tänker att en temperatur är en temperatur – huvudsaken att data sensorn skickar in data som stämmer. Men med AI i bilden är det tydligt att felaktig data kan skapa stora problem. En mätning på fel ställe kan ge en skev bild som snabbt kan bli en källa till systematisk bias i AI-modeller.
Tekniska och mänskliga orsaker till bias
IoT samlar in stora mängder realtidsdata från sensorer i varierade miljöer. Om datan är skev, leder det till att beslut som skall fattas med data som grund förstärks. Om AI-system tränas på felaktig IoT-data förstärks befintliga felaktigheter. Ett enkelt exempel kan vara en temperatursensor som placeras i direkt solljus, en sensor som ger missvisande värden som i sin tur påverkar AI-beslut negativt. Kanske minskas temperaturen i ett rum eller en byggnad som en konsekvens av fel värden. Sommartid kanske onödigt mycket energi går åt till att kyla ned ett rum, som får till konsekvens att resurser används på ett felaktigt sätt.
Bias handlar inte bara om tekniska fel. Det kan också uppstå av sociotekniska orsaker. Studier visar att smartklockor mäter puls sämre på mörk hud, och röstassistenter har svårare att förstå dialekter och accenter utanför normen. I självkörande bilar upptäcks fotgängare med mörk hud eller barn mindre effektivt. Dessa brister kan förstärka ojämlikhet och leda till allvarliga konsekvenser.
Obalanserad datainsamling är ett annat exempel på bias i IoT. I smarta städer placeras sensorer ofta i tät bebyggelse, vilket leder till "sensoröknar" där områden med mindre data får felaktiga beslut baserade på begränsad information. På samma sätt kan prediktivt underhåll i industrin missa viktiga variabler om AI-modellen är tränad på för snävt utvalda miljöer.
Riskerna med att ignorera bias
Att ignorera bias är inte bara ett etiskt problem, det är en affärsmässig och juridisk risk. EU:s AI Act innebär hårda krav på företag att hantera bias och säkerställa rättvisa och representativ data. Bias urholkar också användarnas förtroende, vilket kan få långsiktiga negativa konsekvenser för företagets varumärke.
Vad kan företag göra? Regelbunden kalibrering av sensorer, noggrann datarevision, inkluderande designprinciper och kontinuerliga kvalitetsgranskningar är avgörande steg. Genom att bygga in rättvisa från början säkerställer vi AI-system som vi kan lita på och som fungerar rättvist för alla.
Frågan är enkel men viktig: bygger vi system som ser alla – eller bara de som redan är överrepresenterade? Om du är intresserad av att fördjupa dig i ämnet är inlägget Rätt data gör AI mer rättvis från vår Chief Innovation Officer Ulf Seijmer en bra startpunkt.