EU: ”Hög risk” inom AI för arbetsmarknaden – När det gäller artificiell intelligens är förtroende ett måste, inte bara något som det är trevligt att ha, säger EU-kommissionär Margrethe Vestager. Foto: Olivier Hoslet

EU: ”Hög risk” inom AI för arbetsmarknaden

EU EU-kommissionen har lagt fram ett lagförslag som siktar på att hindra att AI-lösningar i framtiden används för odemokratiska syften eller återskapar diskriminerande strukturer. Rekrytering och arbetsledning identifieras som högriskområden som ska ha långtgående säkerhetskrav.
22 apr 2021

På onsdagen lade EU-kommissionen fram sitt lagförslag om att reglera AI-teknologi för att förhindra oetiska tillämpningar och risker med diskriminerande applikationer.

Liksom GDPR siktar på att säkerställa att medborgare ska kunna lita på att deras personliga uppgifter hanteras på ett sätt som värnar den personliga integriteten, syftar den nya AI-förordningen på att säkerställa att människorna också ska kunna lita på AI-lösningar.

Högriskområden

AI-system som anses utgöra hög risk i EU-kommissionens lagförslag är exempelvis AI-system som används i:

  • Kritiska infrastrukturer (t.ex. transport), som kan innebära hot mot människors liv och hälsa.
    Utbildning, där systemen kan avgöra personers tillgång till utbildning och yrkeskarriär (t.ex. poängsättning av prov).
  • Säkerhetskomponenter i produkter (t.ex. AI-tillämpningar för robotstöd vid operationer).
  • Anställning, arbetsledning och tillgång till egenföretagande (t.ex. mjukvara för sortering av cv:n i samband med rekrytering).
  • Väsentliga privata och offentliga tjänster (t.ex. kreditbedömning som innebär att medborgare hindras från att ta lån).
  • Brottsbekämpning som kan påverka människors grundläggande rättigheter (t.ex. bedömning av tillförlitligheten i bevis).
  • Hantering av migration, asyl och gränskontroll (t.ex. kontroll av äktheten i resehandlingar).
    Rättskipning och demokratiska processer (t.ex. tillämpning av lagstiftning på ett konkret faktaunderlag).

Källa: ec.europa.eu

+ Expandera

– Genom standarder kan vi bana vägen för en etisk teknik globalt och samtidigt se till att EU behåller sin konkurrenskraft. Våra regler är framtidssäkrade och innovationsvänliga och kommer endast att ingripa när det är strikt nödvändigt – alltså när EU-medborgarnas säkerhet och grundläggande rättigheter hotas, säger EU-kommissionär Margrethe Vestager, som ansvarar för ett Europa rustat för den digitala tidsåldern, i en kommentar.

De nya reglerna ska gälla på samma sätt i alla EU-länder och utgår från fyra riskkategorier med olika grader av restriktioner och kontroller. Den högsta riskkategorin, ”oacceptabel risk”, förbjuds helt och innehåller exempelvis system som stater kan använda för ”social poängsättning”.

EU sticker ut globalt

Anna Felländer, grundare av svenska AI Sustainability Center, en stiftelse som bjuder in medlemsföretag att testa och pilotköra sina lösningar, noterar att EU sticker ut på den globala scenen genom att ta krafttag för etisk AI.

– EU markerar tydligt mot anti-demokratisk användning av AI och det

Anna Felländer, grundare av AI Sustainability Center.

gör mig och AI Sustainability Center, som har förberett för det här i tre år, stolta. Det kommer skapa konkurrensfördelar som gör att hållbara AI-innovationer kan blomstra. Efterfrågan på etiskt hållbara AI-lösningar kommer vara stor i framtiden och där har EU nu en chans att gå före, säger Anna Felländer till Arbetsvärlden.

Hon menar att lagförslaget kommer som en komplettering till GDPR för att garantera att demokratiska principer värnas med den nya teknologin.

– Algoritmer lär sig på historisk data. Det innebär att de exempelvis kan komma att prioritera vita män i rekryteringsprocesser för att den gruppen historiskt haft de egenskaper som arbetsgivare efterfrågat. Faktorer som kön, ålder och etnicitet kan få genomslag på ett sätt som är diskriminerande om vi inte har ett AI-etiskt filter på plats.

Det är hög tid att öppna den svarta lådan

Just rekrytering och arbetsledning räknas i lagförslaget i den näst högsta riskkategorin, ”Hög risk”. AI-applikationer i den här kategorin villkoras med strikta skyldigheter för att få släppas ut på marknaden.

Kraven inkluderar ändamålsenlig riskbedömning och riskreducering, loggning av åtgärder för att säkerställa spårbara resultat, detaljerad dokumentation om systemet och dess ändamål, tydlig och tillräcklig information till användaren samt hög nivå av robusthet, säkerhet och noggrannhet.

– Här behöver varje nation ha ett ”Center of Excellence” för AI för att säkra att nya AI-innovationer lever upp till de etiska krav som ställs, säger Anna Felländer.

Hon menar att det är hög tid för såväl företag som politiker att ta tag i frågan och börja förbereda sig för etiska krav.

– Om vi inte redan nu förbereder för etiskt hållbar AI så riskerar vi att få AI som återskapar diskriminerande strukturer på livsavgörande områden. Det är hög tid att öppna den svarta lådan och för svenska politiker att vakna upp till frågan med  starkt ledarskap och ökad kunskapsnivå, säger Anna Felländer.

22 apr 2021
Kommentera
Kommentera

Kommentera artikeln

Vi vill gärna få frågor, kommentarer och reflektioner om våra artiklar! Arbetsvärlden förhandsmodererar artikelkommentarer, vilket gör att det kan dröja en stund innan din kommentar dyker upp. Håll dig till ämnet, och håll en god ton. Vi föredrar om du anger ditt riktiga namn, men du måste inte.

Nyheter
De viktigaste nyheterna två gånger i veckan