23sty
AI W HR POD LUPĄ: CO ZMIENIA EU AI ACT DLA POLSKICH PRACODAWCÓW

AI W HR POD LUPĄ: CO ZMIENIA EU AI ACT DLA POLSKICH PRACODAWCÓW

Polskie firmy spędziły ostatnie miesiące na przygotowaniach do jawności wynagrodzeń i zmian w Kodeksie pracy. Tymczasem równolegle – i prawie niezauważenie – wchodzi w życie EU AI Act: pierwszy na świecie kompleksowy akt prawny regulujący sztuczną inteligencję.

I nie, to nie dotyczy tylko gigantów technologicznych.

Jeśli Twoja firma używa ATS-a (Applicant Tracking System) z "AI-powered screening", platformy rekrutacyjnej która automatycznie rankinguje CV, albo systemu HRM z modułami "predykcji wydajności" – najprawdopodobniej jesteś objęty AI Act jako użytkownik systemów wysokiego ryzyka.

UWAGA: Pełne wymagania dla systemów AI w obszarze HR wchodzą w życie w sierpniu 2026 – czyli za 7 miesięcy.

Dlaczego AI Act dotyczy polskich firm HR

AI Act to rozporządzenie UE, co oznacza że obowiązuje bezpośrednio w Polsce – bez potrzeby odrębnej ustawy wdrażającej, podobnie jak kiedyś RODO.

Przepisy stosuje się ETAPOWO:

  • 2 lutego 2025 - zakazy i obowiązki AI literacy (już obowiązuje)
  • 2 sierpnia 2025 - zasady governance i obowiązki dla modeli GPAI
  • 2 sierpnia 2026 - PEŁNE WYMAGANIA DLA SYSTEMÓW WYSOKIEGO RYZYKA W HR/REKRUTACJI
  • 2 sierpnia 2027 - przedłużony okres dla systemów embedded w produktach regulowanych

🎯 KLUCZOWA DATA DLA HR: 2 SIERPNIA 2026

Do tego dnia firmy używające AI w rekrutacji, ocenie pracowników i zarządzaniu zespołem muszą spełniać wszystkie wymagania AI Act dla systemów wysokiego ryzyka.


Jakie systemy HR są "wysokiego ryzyka"

AI Act dzieli systemy sztucznej inteligencji na kategorie ryzyka: od niedopuszczalnych (zakazanych) przez wysokie ryzyko po minimalne/bez ryzyka.

Systemy używane w zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia zaliczono do kategorii WYSOKIEGO RYZYKA, bo bezpośrednio wpływają na prawa i sytuację życiową kandydatów i pracowników.

W PRAKTYCE:

Jeśli korzystasz z ATS-a, platformy rekrutacyjnej czy systemu HRM z "modułami AI" - istnieje duże prawdopodobieństwo, że przynajmniej część tych funkcji będzie traktowana jako wysokiego ryzyka.

Nie ma znaczenia czy to open-source, SaaS, czy rozwiązanie wewnętrzne. Liczy się JAK DZIAŁA I DO CZEGO SŁUŻY, nie kto je stworzył.


Obowiązki pracodawcy jako "użytkownika" systemów AI

AI Act rozróżnia dwie główne role:

  • Provider (dostawca) - tworzy/dostarcza system AI
  • Deployer (użytkownik) - wdraża i wykorzystuje system

Pracodawca zwykle jest UŻYTKOWNIKIEM, nawet jeśli nie programował AI samodzielnie.

CO MUSISZ ZROBIĆ JAKO UŻYTKOWNIK SYSTEMU WYSOKIEGO RYZYKA:

1. OCENA RYZYKA I WPŁYWU NA PRAWA OSÓB

Przed wdrożeniem narzędzia AI w HR musisz przeprowadzić ocenę ryzyka zgodnie z wymogami AI Act.

UWAGA PRAKTYCZNA: AI Act nie używa pojęcia "DPIA" (Data Protection Impact Assessment - to termin z RODO), ale wiele firm i kancelarii łączy ocenę ryzyka wymaganą przez AI Act z oceną skutków dla ochrony danych osobowych, tworząc jeden wspólny dokument. Jest to sensowne podejście, bo systemy AI w HR przetwarzają dane osobowe i wymagają analizy zarówno pod kątem AI Act, jak i RODO.

CO TO ZNACZY W PRAKTYCE?

  • Zidentyfikować potencjalne ryzyka dyskryminacji, błędów, privacy
  • Opisać środki zaradcze
  • Udokumentować analizę

2. NADZÓR CZŁOWIEKA (HUMAN OVERSIGHT)

Firma musi wyznaczyć osoby odpowiedzialne za nadzór nad systemem AI.

Decyzje AI NIE MOGĄ BYĆ "NIEODWOŁALNE" - człowiek musi mieć możliwość:

  • Interwencji w działanie systemu
  • Korekty rekomendacji algorytmu
  • Całkowitego odrzucenia sugestii AI
PRZYKŁAD: ATS automatycznie odrzucił 50 CV na podstawie braku konkretnego słowa kluczowego. HR musi mieć możliwość przejrzenia odrzuconych CV i "wyciągnięcia" kandydatów, których algorytm pominął.

3. SZKOLENIE UŻYTKOWNIKÓW SYSTEMU

Pracownicy HR i menedżerowie korzystający z AI MUSZĄ ROZUMIEĆ:

  • Jak działa system
  • Jakie ma ograniczenia
  • Jakie niesie ryzyka

AI Act wymaga podniesienia "AI LITERACY" - kompetencji korzystania z narzędzi AI w sposób odpowiedzialny (art. 4 AI Act).

WAŻNE: Obowiązek budowania AI literacy dotyczy KAŻDEGO PRACODAWCY KORZYSTAJĄCEGO Z SYSTEMÓW AI, niezależnie od tego, czy są to systemy wysokiego ryzyka, czy prostsze narzędzia. To oznacza, że nawet jeśli używasz tylko prostego chatbota rekrutacyjnego czy generatywnego AI do pisania ogłoszeń - Twój zespół powinien rozumieć jak te narzędzia działają i jakie mają ograniczenia.

4. LOGOWANIE I DOKUMENTACJA

Firma powinna PRZECHOWYWAĆ LOGI z działania systemu oraz podstawowe informacje o tym:

  • Kiedy AI było użyte
  • W jakim procesie (rekrutacja, ocena, awans)
  • Kto nadzorował decyzję
  • Jakie były wyniki

To nie tylko wymóg AI Act - to również ochrona przed roszczeniami.

5. OBOWIĄZKI INFORMACYJNE WOBEC KANDYDATÓW I PRACOWNIKÓW

Osoby, których dotyczą decyzje wspierane przez AI, MUSZĄ BYĆ POINFORMOWANE, że:

  • Narzędzie AI zostało użyte
  • Jakie główne czynniki wpłynęły na rekomendację systemu
PRZYKŁAD: "W procesie rekrutacyjnym używamy systemu AI do analizy CV. System ocenia dopasowanie Twojego doświadczenia do wymagań stanowiska na podstawie słów kluczowych, lat doświadczenia i wykształcenia. Ostateczną decyzję podejmuje recruiter."

Czy można "zrzucić odpowiedzialność" na dostawcę systemu?

NIE.

AI Act wprost zakłada, że odpowiedzialności dostawcy i użytkownika się uzupełniają - pracodawca nie może przerzucić całości ryzyka na vendorów.

UŻYTKOWNIK (PRACODAWCA) MUSI:

  • Korzystać z systemu ZGODNIE Z INSTRUKCJĄ I PRZEZNACZENIEM
  • Upewnić się, że ma WEWNĘTRZNE PROCEDURY nadzoru, rejestrowania użycia i reagowania na błędy
  • WSTRZYMAĆ UŻYCIE AI, jeśli zauważy istotne ryzyko dyskryminacji lub naruszenia praw kandydatów/pracowników
PRAKTYCZNY PRZYKŁAD: Twój ATS od vendora ma certyfikat zgodności z AI Act. Super. Ale jeśli TY użyjesz tego ATS-a do automatycznego odrzucania wszystkich kandydatów powyżej 40 roku życia – TO TY NARUSZASZ AI ACT, nie vendor.

Co powinna zrobić polska firma HR w 2026 roku

Z perspektywy działu HR i zarządu MINIMALNY PLAN NA 2026 wygląda tak:

DO LUTEGO 2026 (GUIDANCE PERIOD):

  • INWENTARYZACJA NARZĘDZI - spisz wszystkie narzędzia w rekrutacji i HR, które używają AI:
    • ATS (Applicant Tracking Systems)
    • Testy psychometryczne z AI
    • Scoring CV
    • Chatboty rekrutacyjne
    • Narzędzia do oceny wydajności
    • Video interview analysis tools
  • KLASYFIKACJA RYZYKA - sprawdź, które z tych narzędzi wchodzą w zakres AI Act jako systemy wysokiego ryzyka
  • DUE DILIGENCE VENDORÓW - poproś dostawców o:
    • Potwierdzenie czy ich system jest "wysokiego ryzyka"
    • Jakie działania podjęli w zakresie zgodności z AI Act
    • Czy zapewniają wymaganą dokumentację techniczną
    • Czy system jest/będzie zarejestrowany w EU database

DO SIERPNIA 2026 (DEADLINE COMPLIANCE):

  • PRZYGOTOWANIE PROCEDUR WEWNĘTRZNYCH:
    • Kto nadzoruje AI w HR?
    • Jak rejestrujecie użycie systemu?
    • Jak informujecie kandydatów i pracowników o wykorzystaniu AI?
    • Jak reagujecie na skargi dotyczące AI?
  • PRZEPROWADZENIE OCENY RYZYKA/WPŁYWU - dla każdego systemu wysokiego ryzyka (często łączone z DPIA z RODO)
  • SZKOLENIA DLA HR I MENEDŻERÓW - włącz AI Act do szkoleń compliance obok RODO i zmian w Kodeksie pracy
  • DOKUMENTACJA HUMAN OVERSIGHT - opisz kto i jak nadzoruje decyzje wspierane przez AI, jak można je zakwestionować
  • PRZYGOTOWANIE KOMUNIKACJI - szablony informacji dla kandydatów/pracowników o użyciu AI

Kary za naruszenie AI Act

Warto wiedzieć że KARY SĄ ZNACZĄCE:

  • €35 MLN LUB 7% GLOBALNEGO OBROTU - za stosowanie zakazanych praktyk AI
  • €15 MLN LUB 3% GLOBALNEGO OBROTU - za naruszenia wymogów dla systemów wysokiego ryzyka
  • €7,5 MLN LUB 1,5% GLOBALNEGO OBROTU - za podanie nieprawdziwych informacji organowi nadzoru

Egzekucją zajmują się organy krajowe w państwach członkowskich UE.


Czy AI Act to "drugie RODO"?

Tak, wiele organizacji HR traktuje już AI Act jako "DRUGIE RODO" dla systemów sztucznej inteligencji.

RÓŻNICE:

  • AI Act ma ETAPOWE WDROŻENIE (nie wszystko naraz jak w RODO)
  • PODEJŚCIE OPARTE NA RYZYKU (nie wszystkie systemy AI są równo regulowane)
  • Większy nacisk na HUMAN OVERSIGHT i PRZEJRZYSTOŚĆ ALGORYTMÓW

AI Act to nie science fiction, to 2026

Dla polskich firm używających AI w HR, AI Act nie jest "problemem przyszłości". To regulacja która WCHODZI W ŻYCIE ZA 7 MIESIĘCY.

Firmy które zignorują ten temat w pierwszej połowie 2026 roku, będą miały problem w drugiej połowie - albo z compliance, albo z karami, albo z obydwoma naraz.

MINIMALNY PLAN:

  1. Zrób inwentaryzację AI w HR
  2. Sprawdź vendorów
  3. Przygotuj procedury
  4. Przeszkol zespół

I pamiętaj: AI Act nie zakazuje używania AI w HR. WYMAGA TYLKO, żebyś robił to odpowiedzialnie, przejrzyście i z nadzorem człowieka.

📧 katarzyna.kwiatkowska@smartpeople.com.pl

🔗 smartpeople.com.pl

ZASTRZEŻENIE PRAWNE:
Niniejszy materiał ma charakter wyłącznie informacyjny i edukacyjny. Nie stanowi porady prawnej ani nie może być traktowany jako podstawa do podejmowania decyzji prawnych lub biznesowych. Informacje zawarte w artykule mogą nie odzwierciedlać najnowszych zmian legislacyjnych i mogą różnić się w zależności od jurysdykcji. Lektura tego materiału nie tworzy relacji prawnik-klient. Przed podjęciem jakichkolwiek działań w oparciu o informacje zawarte w tym artykule, zaleca się konsultację z wykwalifikowanym prawnikiem posiadającym licencję w odpowiedniej jurysdykcji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

This field is required.

This field is required.