DO ser risker med automatiserade beslut

DISKRIMINERING2022-03-15

Statliga myndigheter saknar tillräcklig kunskap om riskerna för diskriminering vid automatiserade beslut, konstaterar Diskrimineringsombudsmannen, DO, i en ny rapport.

Av:  Elina Lundberg

Att datorprogram tar myndighetsbeslut, så kallat automatiserat beslutsfattande, sker i allt större utsträckning inom statsförvaltningen. Enligt Riksrevisionen togs 137 miljoner automatiserade myndighetsbeslut under 2019.

Enligt en ny kartläggning som Diskrimineringsombudsmannen, DO, har gjort uppger 14 av 34 tillfrågade myndigheter att de använder tekniken. Det handlar både om helt automatiserat beslutsfattande och beslut som tas av handläggare med hjälp av automatiserat beslutsunderlag.

Ofta har automatiseringen införts för att öka effektiviteten och förkorta handläggningstiderna på myndigheterna, som även uppfattar att beslutsfattandet har blivit mer likvärdigt, enhetligt och rättssäkert.

Men, understryker DO, tillämpningen kan också föra med sig risker för diskriminering, något som DO anser att myndigheterna saknar tillräcklig kunskap om. Som ett exempel lyfter DO fram ett tillsynsbeslut från förra året där Försvarsmakten automatiskt sållade bort de personer som i sina ansökningar uppgett att de har diagnosen adhd eller autism. Att personerna därmed inte gavs möjlighet till en individuell bedömning av sin lämplighet för att göra militärtjänst var diskriminering, slog DO fast.

Trots riskerna är det bara är fyra av de fjorton myndigheter som använder automatiserade beslut som beaktar diskrimineringsgrunderna i de riskanalyser som görs för att säkerställa att inte enskilda missgynnas av besluten. Lika få, fyra myndigheter, svarar att de har tagit diskrimineringsgrunderna i beaktande sina styrdokument och kvalitetsuppföljningar gällande automatiserat beslutsfattande.

Samtidigt anser de flesta myndigheterna i DOs kartläggning att de inte behöver mer kunskap och stöd i hur de kan minska risken för missgynnande. Den bilden delar inte DO, som bedömer att myndigheterna i stort sett saknar ett diskrimineringsperspektiv i sina automatiserade beslutsprocesser.

”Det är nu extremt angeläget att utveckla kunskapen vad gäller AI och automatiskt beslutsfattande och att synliggöra de risker som finns” konstaterar Lars Arrhenius, diskrimineringsombudsman, i ett pressmeddelande.

Han betonar också vikten av att DO bedriver en effektiv tillsyn på området.

Detta är en nyhetsartikel. Publikts nyhetsrapportering ska vara saklig och korrekt. Tidningen har en fri och självständig ställning gentemot sin ägare, Fackförbundet ST, och utformas enligt journalistiska principer samt enligt spelreglerna för press, radio och TV.

Det är inte längre möjligt att kommentera artikeln.

Typ
Vet du mer om det ämne som artikeln handlar om, eller om du har tips till redaktionen i något annat ämne, kan du lämna ditt tips här. Du kan också skicka ett mejl till redaktionen.
Om du anser att artikeln innehåller fel, beskriv här vad dessa fel består i. Du kan också skicka ett mejl till redaktionen.

Om du vill debattera det ämne artikeln handlar om, kan du skicka in en debattartikel till Publikt för publicering under vinjetten Debatt. Publikt publicerar inte anonyma debattinlägg, du måste därför alltid ange ditt namn och dina kontaktuppgifter. Redaktionen förbehåller sig rätten att korta och redigera insända debattartiklar. Skicka ditt inlägg som ett Worddokument på mejl till redaktionen.

Innehållet i detta fält är privat och kommer inte att visas offentligt.
CAPTCHA