Intresset för artificiell intelligens (AI) ökar inom så gott som alla områden. Rekrytering och urval är kanske det område inom HR där det just nu finns flest lösningar på marknaden. Leverantörer påstår att deras AI-lösning kan identifiera relevanta kandidater både bättre och snabbare än en mänsklig rekryterare. Men vad ska vi som praktiker tro? Vilken potential har AI i rekrytering och urval? Vad behöver vi tänka på om vi funderar på att implementera en sådan lösning?
Potentialen i tekniska lösningar för rekrytering och urval
Den främsta anledningen till att tekniska lösningar för rekrytering och urval ökar i intresse är förmodligen ekonomisk. Det finns nämligen en möjlighet att spara tid och pengar i en process som historiskt sett har varit mycket tidskrävande. En automatiserad lösning som snabbt och enkelt kan filtrera ut “rätt” kandidater kan spara enormt mycket tid för rekryterare som tidigare hade behövt läsa igenom ansökningshandlingar från varje enskild kandidat.
Ytterligare en möjlighet med nya tekniska lösningar är att urvalsprocessen har potential att bli bättre. Dels innebär ett automatiserat urval i de flesta fall också ett systematiskt urval. Alla kandidater blir bedömda på samma sätt. Förhoppningsvis gör det att risken för diskriminering minskar (mer om det lite senare), men vi vet också att ett mekaniskt urval där den mänskliga bedömaren står utanför normalt sett är bättre än en mänsklig helhetsbedömning. Dels erbjuder AI i rekrytering också en möjlighet att hitta mer valida mönster och urvalskriterier.
Läs mer: Evidensbaserad rekrytering – träffsäker bedömning genom mekaniska metoder
Genom att inte implementera AI-lösningar i sina rekryteringsprocesser kan organisationer känna att de halkar efter i den teknologiska utvecklingen. Men bara för att AI utlovar stor potential betyder det inte att den nödvändigtvis är bättre än traditionella metoder för urval.
Hur fungerar AI i rekrytering?
Genom att förstå vad artificiell intelligens är och hur det fungerar kan vi bättre förstå dess möjligheter och risker när det kommer till rekrytering och urval. Artificiell intelligens är ett samlingsnamn för olika typer av förmågor hos maskiner som liknar mänsklig intelligens. Ofta handlar det om kognitiva förmågor som att förstå språk, lösa problem, planera eller generalisera. Inom området finns underkategorier av mer specifika tekniker, där maskininlärning är ett sådant exempel.
Läs mer: Hur definieras artificiell intelligens? (länk till extern sida – Elements of AI)
Mycket av den AI som tillämpas idag bygger på just maskininlärning. Maskininlärning handlar i mångt och mycket om mönsterigenkänning. Genom att analysera någon form av input kan datorn hitta mönster för att göra en korrekt kategorisering eller optimera för ett visst utfall.
I ett rekryteringssammanhang kan det röra sig om att datorn söker igenom ansökningshandlingar för att sedan kategorisera sökande i grupper baserat på deras kvalifikationer, alternativt rangordna kandidaterna från bäst lämpad till sämst lämpad.
Förutom att en dator kan bearbeta information betydligt snabbare än en människa så kan den också hitta bättre, mer träffsäkra och rättvisa, sätt att göra urval på. Men med det kommer också utmaningar och risker.
Utmaningar och risker med AI i rekrytering
Det finns ett antal utmaningar och risker med att använda AI i rekrytering. Nedan tar vi upp några faktorer som organisationer bör ta hänsyn till innan de implementerar en AI-lösning i sin rekryteringsprocess.
Algoritmen tränas av människor
Vad som är viktigt att förstå när det kommer till maskininlärning är att datorn optimerar sin algoritm baserat på information från människor. Det kan gå till så att datorn inledningsvis får ett “korrekt” utfall för varje input eller genom någon annan form av mänsklig återkoppling på om maskinen gör rätt eller fel. Det är också människan som bestämmer vilka parametrar som algoritmen ska ta hänsyn till.
I exemplet med screening inför det första urvalet innebär det att en människa i träningsstadiet bestämmer vilka kandidater som har rätt innehåll i sin ansökan och vilka delar av ansökningshandlingarna som maskinen ska söka igenom. Utifrån detta lär sig sedan algoritmen hur den ska bedöma ansökningshandlingar och vilka parametrar den ska vikta på vilket sätt.
Människans roll i träningen av algoritmen är nödvändig och värdefull men innebär också en risk. Datorn kan inte själv förstå konsekvenserna av sina slutsatser. Det är därför upp till människan som skapar algoritmen att säkerställa att eventuella osäkerheter, felaktigheter och oönskade effekter blir hanterade på ett lämpligt sätt.
En stor risk med människans inblandning i utformningen av algoritmen är att eventuella biaser som finns med under träningsstadiet kommer att föras över till algoritmen. Om vi ger datorn ett underlag med 100 kandidater och en “korrekt” bedömning av hur väl lämpade dessa 100 kandidater är så kommer alla våra fördomar och förutfattade meningar att följa med algoritmen framöver.
Baserat på ovanstående är det relevant för organisationer som funderar på att implementera en AI-lösning att veta hur och med vilken data algoritmen har tränats. Om underlaget hade brist på en viss grupp kandidater (till exempel minoriteter) finns det en risk att dessa blir diskriminerade när arbetsgivaren använder algoritmen i skarpt läge.
Förlorad kontroll och transparens
Komplicerade algoritmer kan visserligen bli bättre på en uppgift än en människa någonsin skulle bli, men risken är att vi förlorar kontroll och transparens på vägen. När algoritmen har blivit så avancerad att vi inte längre kan förstå hur den fungerar och vilka parametrar den tar hänsyn till är vi inne på en farlig väg.
När det kommer till rekrytering och urval har vi för det första en arbetsrättslig aspekt att ta hänsyn till. Om vi inte vet hur algoritmen har gjort sitt urval, hur vet vi då att den inte diskriminerar?
För det andra vet vi att transparens är en nyckel till en god kandidatupplevelse. Kan vi vara öppna med vad vi gör under rekryteringsprocessen och varför vi gör det kommer vi långt när det gäller kandidatupplevelse.
Kriterievaliditet
När vi arbetar med rekrytering och urval har vi ett tydligt mål: att öka sannolikheten att anställa rätt och minimera risken att anställa fel. Hur säkerställer vi att en urvalsmetod (i det här fallet en AI-lösning) hjälper oss att uppnå det målet? Det är det kriterievaliditet handlar om.
Kriterievaliditet syftar i urvalssammanhang på huruvida urvalsmetoden har ett samband med ett relevant kriterium, till exempel framtida arbetsprestation eller ett annat mått på relevanta kompetenser.
Vi kan vara tämligen säkra på att ett AI-program kan göra ett urval betydligt snabbare än om vi manuellt ska läsa igenom ansökningshandlingar och bedöma varje enskild kandidat för sig. Men alla kan nog hålla med om att vi inte vill riskera sämre kvalitet i urvalet, det vill säga att vi minskar våra chanser att anställa rätt eller ökar risken att anställa fel. Därför bör vi säkerställa att en AI-lösning har en tillfredsställande kriterievaliditet innan vi väljer att implementera den fullt ut i våra rekryteringsprocesser.
Enligt Gonzalez m.fl. (2019) har en betydande andel av arbetsgivare redan implementerat någon form av teknisk lösning för rekrytering och urval som utlovar eller angränsar till AI, samtidigt som det generellt sett saknas vetenskapliga bevis för deras reliabilitet och validitet. Det är ett problem. Här har traditionella urvalsmetoder en fördel gentemot AI-lösningar för urval, nämligen att det redan finns omfattande forskning som hjälper oss att förstå deras för- och nackdelar.
Vill du få HR-forskning direkt i din inkorg? Prenumerera på nya inlägg här:
Kandidatupplevelse
Många organisationer strävar efter en positiv kandidatupplevelse för att stärka sitt arbetsgivarvarumärke och sin förmåga att attrahera och rekrytera rätt kompetens. Om kandidaterna ser negativt på att arbetsgivare använder AI för att göra urval spelar det då mindre roll om algoritmen i övrigt är effektiv.
I ett flertal experiment (se Gonzalez m.fl. 2019; Noble m.fl., 2021) har forskare kunnat visa att kandidater generellt sett har en mer negativ upplevelse av urvalsprocessen om den bygger på AI-baserad bedömning jämfört med traditionell mänsklig bedömning. Detta verkar i sin tur vara kopplat till kritik mot avsaknaden av den mellanmänskliga aspekten, att bli behandlad med respekt och att kunna kommunicera med den potentiella arbetsgivaren. Kandidater som blir granskade av en algoritm upplever ofta att dessa metoder är mindre relevanta och ger sämre möjlighet att prestera. De tenderar också att uttrycka mer oro för sin integritet och ha lägre tillit till beslutet. Däremot inser kandidater att ett automatiserat urval är mer konsekvent än ett urval gjort av en människa.
Orsakerna till den här negativa inställningen hos kandidater kan vara flera. En förklaring kan vara att AI i rekrytering helt enkelt är nytt och relativt okänt. Om kandidaterna inte förstår hur den tekniska lösningen fungerar finns det en risk att de ser den som orättvis och opersonlig. Den här förklaringen har till viss del stöd i forskning då det visar sig att en del av de negativa åsikterna inte är lika framträdande hos kandidater som är mer bekanta med AI och maskininlärning (Gonzalez m.fl., 2019).
Läs mer: Kandidatupplevelse – allt du vill veta
Etiska och juridiska utmaningar
Risken för inbyggd diskriminering är en utmaning som vi behöver ta på allvar. Utöver den kan det finnas andra etiska och juridiska frågor att ta hänsyn till innan organisationen väljer att implementera en AI-lösning i sin rekryteringsprocess. Det kan handla om hur användningen av lösningen lever upp till gällande lagstiftning kopplat till diskriminering och dataskydd. Det kan också röra sig om en bredare etisk fråga: kan vi försvara vår urvalsprocess gentemot våra kandidater?
AI-lösningen måste kunna uppvisa samma psykometriska, professionella och rättsliga standarder som traditionella urvalssystem. Vi behöver kunna lita på att den tekniska lösningen gör vad den ska utan att orsaka skada på något sätt.
Är AI-lösningen bättre än en enkel regel?
Ofta jämför vi AI-lösningar med ett traditionellt – manuellt och tidskrävande – alternativ. Men faktum är att det finns ett mellanting, nämligen automatisering som bygger på enkla regler. En dator behöver inte artificiell intelligens för att kunna utföra en uppgift snabbt, den kan lika gärna bygga på en enkel ekvation. Dessutom har det visat sig att en enkel ekvation eller regel i många fall gör ett lika bra jobb när det gäller att förutsäga framtida utfall som en mer komplex modell. Och givetvis ett bättre jobb än en människa.
För att en enkel modell ska fungera bra behöver vi välja ut en eller ett par parametrar som vi vet har ett samband med det utfall som vi är intresserade av. En sådan parameter skulle kunna vara kognitiv förmåga, som vi vet korrelerar med arbetsprestation i så gott som alla jobb. En annan skulle kunna vara målmedvetenhet mätt med ett personlighetstest. Sedan rangordnar vi kandidater och gör ett urval baserat på dessa parametrar.
Enkla modeller fungerar ofta lika bra som mer komplexa för att relevanta parametrar ofta korrelerar med varandra. Det innebär att när vi lägger ihop två eller fler parametrar, oavsett hur vi viktar dem, så blir prediktionen vanligtvis inte särskilt mycket bättre än om vi hade använt bara den bästa parametern och baserat uppskattningen på enbart den.
En stor fördel med enkla modeller är dessutom att de är transparenta och lätta att tillämpa.
Frågan vi behöver ställa oss är därför: kan den här AI-lösningen göra ett bättre jobb än en enklare modell?
Att tänka på inför implementering av AI
- Problemet: Vad är det för problem vi vill lösa med AI? Kan en AI-lösning göra ett bättre jobb än ett enklare alternativ i det här fallet?
- Datakvalitet: Vad bygger algoritmen på för data? Hur har tillverkarna tränat den?
- Transparens: Kan vi vara öppna med vad vi använder och varför vi använder det? Kan vi förklara hur lösningen fungerar, hur den gör sitt urval och vilka parametrar det är baserat på?
- Kriterievaliditet: Har vi säkerställt lösningens kriterievaliditet?
- Kandidatupplevelse: Hur beskriver vi vår urvalsprocess för våra kandidater? Kan vi utbilda kandidaterna i hur de tekniska lösningarna fungerar och varför vi använder dem?
- Etiska och legala faktorer: Hur säkerställer vi att vi följer lagstiftningen? Vilka konsekvenser kan det få om vi använder lösningen?
Referenser och lästips
Gonzalez, M. F., Capman, J. F., Oswald, F. L., Theys, E. R., & Tomczak, D. L. (2019). “Where’s the I-O?” Artificial intelligence and machine learning in talent management systems. Personnel Assessment and Decisions, 5(3), 33-44.
Liem, C. C. S., Langer, M., Demetriou, A., Hiemstra, A. M. F., Wicaksana, A. S., Born, M. Ph., & König, C. J. (2018). Psychology meets machine learning: interdisciplinary perspectives on algorithmic job candidate screening. I H. Jair Escalante, S. Escalera, I. Guyon, X. Baró, & Y. Güçlütürk (Red.), Explainable and Interpretable Models in Computer Vision and Machine Learning (s. 197-253). (The Springer Series on Challenges in Machine Learning). Springer.
Noble, S. M., Foster, L. L., & Craig, S. B. (2021). The procedural and interpersonal justice of automated application and resume screening. International Journal of Selection and Assessment, 29, 139-153.
Designed by vectorjuice / Freepik
Lämna ett svar