Uprzedzenia w rekrutacji wspomaganej AI

Sztuczna inteligencja na dobre zadomowiła się w świecie rekrutacji. Z jednej strony mamy do czynienia z obietnicą szybszego i bardziej obiektywnego wyboru kandydatów. Z drugiej – z zagrożeniem, że technologia zamiast eliminować uprzedzenia, zacznie je wzmacniać. Czy da się pogodzić wydajność AI z ludzką wrażliwością? I co robić, by nie wpaść w pułapkę cyfrowej dyskryminacji?

Czym właściwie jest rekrutacja wspomagana AI?

To proces, w którym algorytmy wspierają działania działów HR: analizują CV, profilują kandydatów, a nawet oceniają nagrania z rozmów kwalifikacyjnych. Narzędzia oparte na AI potrafią przetwarzać ogromne ilości danych, znajdując wzorce trudne do wychwycenia przez człowieka. W teorii wszystko brzmi pięknie – szybszy wybór, mniej błędów i większy obiektywizm.

Ale gdzie w tym wszystkim ludzka równość?

No właśnie. Kluczowy problem polega na tym, że algorytmy uczą się z danych, które im dostarczymy. A te dane – podobnie jak ludzie – bywają stronnicze. Jeśli w firmowych archiwach dominują mężczyźni na stanowiskach kierowniczych, to AI może “uznać”, że tylko mężczyźni nadają się do zarządzania. W efekcie zamiast niwelować dyskryminację, powiela ją w nowej formie.

W 2018 roku Amazon testował system wspomagający wybór kandydatów na stanowiska techniczne. Algorytm analizował CV, ale po czasie okazało się, że wyraźnie faworyzuje mężczyzn. Dlaczego? Bo trenowano go na danych z poprzednich lat, a w tamtym okresie większość zatrudnionych na takich stanowiskach stanowili mężczyźni. Firma wycofała narzędzie, ale sprawa pokazała, jak łatwo nieświadomie zakodować uprzedzenia w technologii.

Czy można coś z tym zrobić?

Oczywiście – ale wymaga to świadomego podejścia. Kluczowe jest, by:

  • regularnie audytować algorytmy pod kątem stronniczości,
  • zadbać o różnorodność danych treningowych,
  • projektować narzędzia AI w zespołach, które same są różnorodne – nie tylko pod względem płci czy pochodzenia, ale też sposobu myślenia,
  • zapewnić przejrzystość w działaniu systemów – czyli by każdy rekruter wiedział, na jakiej podstawie AI podjęło decyzję.

Niektóre firmy już działają w tym kierunku. IBM, znany z projektów związanych z etyczną AI, opracował narzędzia pozwalające wychwytywać i redukować uprzedzenia w danych. Oprócz technologii stawiają też na edukację – pracownicy HR uczą się, jak krytycznie patrzeć na wyniki generowane przez algorytmy IBM.

Czy prawo nadąża za technologią?

Tak – choć nie bez trudu. Unia Europejska uchwaliła tzw. AI Act – kompleksowe przepisy dotyczące sztucznej inteligencji. Co ważne, systemy wspierające rekrutację pracowników zostały w nim uznane za technologie wysokiego ryzyka. Co to oznacza w praktyce?

Firmy będą zobowiązane m.in. do:

  • wykazywania, że ich algorytmy są bezstronne i zgodne z przepisami antydyskryminacyjnymi,
  • zapewnienia nadzoru człowieka nad automatycznymi decyzjami,
  • dokumentowania działania systemów i przeprowadzania ocen ryzyka.

Pierwsze zapisy zaczną obowiązywać już w 2025 roku. To duży krok ku większej odpowiedzialności za to, jak AI wpływa na życie kandydatów.

AI w rekrutacji to nie zło wcielone – ale jak każda technologia, wymaga mądrego użycia. Potrafi odciążyć rekruterów i przyspieszyć procesy, ale nie może zastąpić zdrowego rozsądku i empatii. Jeśli chcemy, by firmy były naprawdę inkluzywne, musimy nie tylko ufać algorytmom, ale przede wszystkim – rozumieć, jak działają.

Comments are closed.