Rekrytering via AI har ännu inte slagit igenom på bred front i Sverige. Tekniken utvecklas främst i USA och Kina.
Men i Linköpings kommun gör numera en algoritm grovsorteringen av sökande till säsongs- och tillfälliga anställningar, baserat på frågor och tester.
‒ På det sättet kan man undvika att gå för mycket på felaktig magkänsla och att alla får en rättvisare behandling, samtidigt som vi inte bara ser på gamla meriter utan vilka som i testerna visat potential för framtiden, förklarar Patrik Reman, rekryteringsspecialist på kommunen.
Det slutliga urvalet görs av en mänsklig rekryterare. Nästa steg hoppas kommunen ska bli en mer avancerad AI som kan analysera CV och presentationer.
På fackförbundet Unionen följer Victor Bernhardtz, ombudsman för digitala arbetsmarknader, utvecklingen.
‒ Sverige är en bit efter och inte riktigt på samma nivå som USA än, uppfattar jag – företag är intresserade av det här, men det mesta som finns är pilotprojekt, säger han.
Bernhardtz är inte negativ till utvecklingen, men varnar för problem.
‒ Vi ska inte rusa för att införa ny teknik bara för att vi kan och det är lagligt. Vi måste fundera på om det fyller en rimlig funktion för alla inblandade. Här tror jag Sverige har en fördel med vår tradition av dialog mellan fack och arbetsgivare. Vi har utvecklingsavtal som kan tillämpas på den sortens frågor.
Vid en ogenomtänkt tillämpning kan man lätt låsa fast dåliga rutiner, menar han.
‒ En algoritm framstår som något objektivt och definitivt, men data är aldrig neutrala. Problem uppstår när det är svårt att att förstå hur programmet kommit fram till ett visst beslut – om systemet är tillräckligt komplicerat kan det vara obegripligt till och med för företaget som använder det. I teorin kan det leda till bättre beslut men då är det mycket som krävs.
Om systemet är tillräckligt komplicerat kan det vara obegripligt till och med för företaget som använder det
En vanlig invändning mot jobbmatchnings-algoritmer är att de orsakar eller fördjupar diskriminering. Amazon fick dra in sin matchningsalgoritm när det visade sig att den räknade “kvinnlig” som en negativ egenskap. Den hade tränats på utvärderingar av anställda där män tenderade att rankas högre ‒ en typ av problem som ständigt återkommer med självlärande AI, den är aldrig bättre än de data som används för att träna upp den.
Andra algoritmer har kommit fram till att den egenskap som bäst förutsäger en persons jobbprestationer är att ha spelat i ett lacrosselag eller besöka en viss sida för mangaserier – kriterier som lätt kan bli diskriminerande i praktiken.
Svenska TNG, ett rekryteringsföretag med “mångfaldsinriktning”, har dock tagit fasta på motsatsen – möjligheten att med ny teknik bekämpa diskriminering. De har skapat rekryteringsroboten Tengai, som alltså inte bara är ett dataprogram, utan en fysisk maskin. Tengai har ett lätt stiliserat ansikte i naturlig storlek kapabelt att härma olika känslouttryck, något påminnande om modellen i filmen Jag, robot, och talar med en sval, neutral men rätt människoliknande röst.
Så värst självständig är dock inte Tengai än: den går igenom en förutbestämd lista frågor och transkriberar svaren, varefter en mänsklig rekryterare med hjälp av en mall från TNG ska bedöma vad svaren säger om jobbsökarens personlighet.
Så vad är poängen med att blanda in roboten, egentligen?
‒ Poängen är att du har en intervjuare fri från förutfattade meningar. Det blir väldigt tydligt när man tittar på mänskliga intervjuare att de snabbt bildar sig en uppfattning och det påverkar hur de ställer frågorna och i sin tur kandidaten märker av det och påverkas i sina svar. Tengai garanterar att alla verkligen fått samma förutsättningar, säger vd:n Åsa Edman Källströmer.
Du har en intervjuare fri från förutfattade meningar
Upplands-Bros kommun blev första att använda roboten för en verklig rekrytering, till jobbet som digitaliseringsansvarig förra sommaren. Sedan dess har den bland annat använts på företaget Findus och fackföreningen Vision, enligt Edman Källströmer.
Och nu planerar Linköpings kommun för att robotisera sina inledande anställningsintervjuer.
Utifrån de amerikanska erfarenheterna varnar dock Mathew Scherer, en amerikansk jurist som studerar införandet av AI på arbetsplatser, för att tro att tekniska system är en mirakelmedicin mot diskriminering.
‒ Man kanske tänker att ens algoritm bara mäter objektiva jobbprestationer, till exempel, men om det då är så att anställda från minoriteter får sämre utvärderingar, hjälper det ju inte speciellt mycket. En algoritm kan inte lösa problemen åt dig om den omgivande organisationen fortfarande är diskriminerande.