AI W HR POD LUPĄ: CO ZMIENIA EU AI ACT DLA POLSKICH PRACODAWCÓW
Polskie firmy spędziły ostatnie miesiące na przygotowaniach do jawności wynagrodzeń i zmian w Kodeksie pracy. Tymczasem równolegle – i prawie niezauważenie – wchodzi w życie EU AI Act: pierwszy na świecie kompleksowy akt prawny regulujący sztuczną inteligencję.
I nie, to nie dotyczy tylko gigantów technologicznych.
Jeśli Twoja firma używa ATS-a (Applicant Tracking System) z "AI-powered screening", platformy rekrutacyjnej która automatycznie rankinguje CV, albo systemu HRM z modułami "predykcji wydajności" – najprawdopodobniej jesteś objęty AI Act jako użytkownik systemów wysokiego ryzyka.
Dlaczego AI Act dotyczy polskich firm HR
AI Act to rozporządzenie UE, co oznacza że obowiązuje bezpośrednio w Polsce – bez potrzeby odrębnej ustawy wdrażającej, podobnie jak kiedyś RODO.
Przepisy stosuje się ETAPOWO:
- 2 lutego 2025 - zakazy i obowiązki AI literacy (już obowiązuje)
- 2 sierpnia 2025 - zasady governance i obowiązki dla modeli GPAI
- 2 sierpnia 2026 - PEŁNE WYMAGANIA DLA SYSTEMÓW WYSOKIEGO RYZYKA W HR/REKRUTACJI
- 2 sierpnia 2027 - przedłużony okres dla systemów embedded w produktach regulowanych
🎯 KLUCZOWA DATA DLA HR: 2 SIERPNIA 2026
Do tego dnia firmy używające AI w rekrutacji, ocenie pracowników i zarządzaniu zespołem muszą spełniać wszystkie wymagania AI Act dla systemów wysokiego ryzyka.
Jakie systemy HR są "wysokiego ryzyka"
AI Act dzieli systemy sztucznej inteligencji na kategorie ryzyka: od niedopuszczalnych (zakazanych) przez wysokie ryzyko po minimalne/bez ryzyka.
Systemy używane w zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia zaliczono do kategorii WYSOKIEGO RYZYKA, bo bezpośrednio wpływają na prawa i sytuację życiową kandydatów i pracowników.
DO WYSOKIEGO RYZYKA W HR ZALICZAJĄ SIĘ:
- ✅ Narzędzia AI do preselekcji CV - automatyczne odrzucanie aplikacji, rankingowanie kandydatów, scoring życiorysów
- ✅ Systemy oceny pracowników oparte na analizie danych (KPI, aktywność w systemach, monitoring wydajności)
- ✅ Algorytmy wspierające decyzje o awansach, premiach, rozwiązaniu umowy, alokacji zadań
- ✅ Zaawansowane narzędzia wideo-rekrutacji analizujące mowę, mimikę, emocje czy inne dane biometryczne kandydata
W PRAKTYCE:
Jeśli korzystasz z ATS-a, platformy rekrutacyjnej czy systemu HRM z "modułami AI" - istnieje duże prawdopodobieństwo, że przynajmniej część tych funkcji będzie traktowana jako wysokiego ryzyka.
Nie ma znaczenia czy to open-source, SaaS, czy rozwiązanie wewnętrzne. Liczy się JAK DZIAŁA I DO CZEGO SŁUŻY, nie kto je stworzył.
Obowiązki pracodawcy jako "użytkownika" systemów AI
AI Act rozróżnia dwie główne role:
- Provider (dostawca) - tworzy/dostarcza system AI
- Deployer (użytkownik) - wdraża i wykorzystuje system
Pracodawca zwykle jest UŻYTKOWNIKIEM, nawet jeśli nie programował AI samodzielnie.
CO MUSISZ ZROBIĆ JAKO UŻYTKOWNIK SYSTEMU WYSOKIEGO RYZYKA:
1. OCENA RYZYKA I WPŁYWU NA PRAWA OSÓB
Przed wdrożeniem narzędzia AI w HR musisz przeprowadzić ocenę ryzyka zgodnie z wymogami AI Act.
CO TO ZNACZY W PRAKTYCE?
- Zidentyfikować potencjalne ryzyka dyskryminacji, błędów, privacy
- Opisać środki zaradcze
- Udokumentować analizę
2. NADZÓR CZŁOWIEKA (HUMAN OVERSIGHT)
Firma musi wyznaczyć osoby odpowiedzialne za nadzór nad systemem AI.
Decyzje AI NIE MOGĄ BYĆ "NIEODWOŁALNE" - człowiek musi mieć możliwość:
- Interwencji w działanie systemu
- Korekty rekomendacji algorytmu
- Całkowitego odrzucenia sugestii AI
3. SZKOLENIE UŻYTKOWNIKÓW SYSTEMU
Pracownicy HR i menedżerowie korzystający z AI MUSZĄ ROZUMIEĆ:
- Jak działa system
- Jakie ma ograniczenia
- Jakie niesie ryzyka
AI Act wymaga podniesienia "AI LITERACY" - kompetencji korzystania z narzędzi AI w sposób odpowiedzialny (art. 4 AI Act).
4. LOGOWANIE I DOKUMENTACJA
Firma powinna PRZECHOWYWAĆ LOGI z działania systemu oraz podstawowe informacje o tym:
- Kiedy AI było użyte
- W jakim procesie (rekrutacja, ocena, awans)
- Kto nadzorował decyzję
- Jakie były wyniki
To nie tylko wymóg AI Act - to również ochrona przed roszczeniami.
5. OBOWIĄZKI INFORMACYJNE WOBEC KANDYDATÓW I PRACOWNIKÓW
Osoby, których dotyczą decyzje wspierane przez AI, MUSZĄ BYĆ POINFORMOWANE, że:
- Narzędzie AI zostało użyte
- Jakie główne czynniki wpłynęły na rekomendację systemu
Czy można "zrzucić odpowiedzialność" na dostawcę systemu?
NIE.
AI Act wprost zakłada, że odpowiedzialności dostawcy i użytkownika się uzupełniają - pracodawca nie może przerzucić całości ryzyka na vendorów.
DOSTAWCA SYSTEMU (PROVIDER) MA OBOWIĄZEK:
- Przeprowadzić ocenę zgodności systemu (conformity assessment)
- Zapewnić dokumentację techniczną
- Opisać ograniczenia i przeznaczenie systemu
- Wdrożyć mechanizmy zarządzania ryzykiem
- Zarejestrować system w unijnej bazie danych (przed wprowadzeniem na rynek)
UŻYTKOWNIK (PRACODAWCA) MUSI:
- Korzystać z systemu ZGODNIE Z INSTRUKCJĄ I PRZEZNACZENIEM
- Upewnić się, że ma WEWNĘTRZNE PROCEDURY nadzoru, rejestrowania użycia i reagowania na błędy
- WSTRZYMAĆ UŻYCIE AI, jeśli zauważy istotne ryzyko dyskryminacji lub naruszenia praw kandydatów/pracowników
Co powinna zrobić polska firma HR w 2026 roku
Z perspektywy działu HR i zarządu MINIMALNY PLAN NA 2026 wygląda tak:
DO LUTEGO 2026 (GUIDANCE PERIOD):
- ☐ INWENTARYZACJA NARZĘDZI - spisz wszystkie narzędzia w rekrutacji i HR, które używają AI:
- ATS (Applicant Tracking Systems)
- Testy psychometryczne z AI
- Scoring CV
- Chatboty rekrutacyjne
- Narzędzia do oceny wydajności
- Video interview analysis tools
- ☐ KLASYFIKACJA RYZYKA - sprawdź, które z tych narzędzi wchodzą w zakres AI Act jako systemy wysokiego ryzyka
- ☐ DUE DILIGENCE VENDORÓW - poproś dostawców o:
- Potwierdzenie czy ich system jest "wysokiego ryzyka"
- Jakie działania podjęli w zakresie zgodności z AI Act
- Czy zapewniają wymaganą dokumentację techniczną
- Czy system jest/będzie zarejestrowany w EU database
DO SIERPNIA 2026 (DEADLINE COMPLIANCE):
- ☐ PRZYGOTOWANIE PROCEDUR WEWNĘTRZNYCH:
- Kto nadzoruje AI w HR?
- Jak rejestrujecie użycie systemu?
- Jak informujecie kandydatów i pracowników o wykorzystaniu AI?
- Jak reagujecie na skargi dotyczące AI?
- ☐ PRZEPROWADZENIE OCENY RYZYKA/WPŁYWU - dla każdego systemu wysokiego ryzyka (często łączone z DPIA z RODO)
- ☐ SZKOLENIA DLA HR I MENEDŻERÓW - włącz AI Act do szkoleń compliance obok RODO i zmian w Kodeksie pracy
- ☐ DOKUMENTACJA HUMAN OVERSIGHT - opisz kto i jak nadzoruje decyzje wspierane przez AI, jak można je zakwestionować
- ☐ PRZYGOTOWANIE KOMUNIKACJI - szablony informacji dla kandydatów/pracowników o użyciu AI
Kary za naruszenie AI Act
Warto wiedzieć że KARY SĄ ZNACZĄCE:
- €35 MLN LUB 7% GLOBALNEGO OBROTU - za stosowanie zakazanych praktyk AI
- €15 MLN LUB 3% GLOBALNEGO OBROTU - za naruszenia wymogów dla systemów wysokiego ryzyka
- €7,5 MLN LUB 1,5% GLOBALNEGO OBROTU - za podanie nieprawdziwych informacji organowi nadzoru
Egzekucją zajmują się organy krajowe w państwach członkowskich UE.
Czy AI Act to "drugie RODO"?
Tak, wiele organizacji HR traktuje już AI Act jako "DRUGIE RODO" dla systemów sztucznej inteligencji.
PODOBIEŃSTWA:
- Bezpośrednio obowiązujące rozporządzenie UE
- Ekstraterytorialny zasięg (dotyczy też firm spoza UE)
- Wysokie kary za naruszenia
- Wymaga zmian w procesach, nie tylko w dokumentacji
- Focus na prawach jednostek (kandydatów, pracowników)
RÓŻNICE:
- AI Act ma ETAPOWE WDROŻENIE (nie wszystko naraz jak w RODO)
- PODEJŚCIE OPARTE NA RYZYKU (nie wszystkie systemy AI są równo regulowane)
- Większy nacisk na HUMAN OVERSIGHT i PRZEJRZYSTOŚĆ ALGORYTMÓW
AI Act to nie science fiction, to 2026
Dla polskich firm używających AI w HR, AI Act nie jest "problemem przyszłości". To regulacja która WCHODZI W ŻYCIE ZA 7 MIESIĘCY.
Firmy które zignorują ten temat w pierwszej połowie 2026 roku, będą miały problem w drugiej połowie - albo z compliance, albo z karami, albo z obydwoma naraz.
MINIMALNY PLAN:
- Zrób inwentaryzację AI w HR
- Sprawdź vendorów
- Przygotuj procedury
- Przeszkol zespół
I pamiętaj: AI Act nie zakazuje używania AI w HR. WYMAGA TYLKO, żebyś robił to odpowiedzialnie, przejrzyście i z nadzorem człowieka.
📧 katarzyna.kwiatkowska@smartpeople.com.pl
🔗 smartpeople.com.pl
PODSTAWY PRAWNE:
- Regulation (EU) 2024/1689 (EU AI Act)
- Annex III: High-Risk AI Systems (AI tools for employment, management of workers and access to self-employment)
- Timeline: Core obligations for high-risk systems apply from 2 August 2026
Niniejszy materiał ma charakter wyłącznie informacyjny i edukacyjny. Nie stanowi porady prawnej ani nie może być traktowany jako podstawa do podejmowania decyzji prawnych lub biznesowych. Informacje zawarte w artykule mogą nie odzwierciedlać najnowszych zmian legislacyjnych i mogą różnić się w zależności od jurysdykcji. Lektura tego materiału nie tworzy relacji prawnik-klient. Przed podjęciem jakichkolwiek działań w oparciu o informacje zawarte w tym artykule, zaleca się konsultację z wykwalifikowanym prawnikiem posiadającym licencję w odpowiedniej jurysdykcji.

