Czy pracownik może zostać zwolniony za użycie AI? Oto co mówi prawo pracy

Coraz więcej pracowników w biurach, firmach doradczych, instytucjach i urzędach korzysta z ogólnodostępnych narzędzi AI, takich jak ChatGPT czy Copilot. Ułatwiają one tworzenie analiz, raportów, ofert, a nawet materiałów marketingowych. Jednak nie każdy zdaje sobie sprawę, że pozornie niewinne „usprawnienie” codziennej pracy może narazić go na poważne konsekwencje służbowe, a nawet zwolnienie dyscyplinarne.


AI w miejscu pracy – czego nie robić?

W przypadku gdy pracodawca nie uregulował korzystania ze sztucznej inteligencji, a pracownik korzysta z niej w pracy bez żadnych wytycznych – ryzyko naruszeń nadal istnieje. Problem zaczyna się w chwili, gdy:

  • pracownik używa AI na służbowym komputerze bez zgody pracodawcy,
  • udostępnia w promptach poufne dane firmy (np. informacje finansowe, umowy, wewnętrzne raporty),
  • działa wbrew zakazowi korzystania z AI, określonemu w regulaminie lub poleceniu służbowym.

Takie zachowanie może być uznane za naruszenie podstawowych obowiązków pracowniczych, w szczególności obowiązku lojalności wobec pracodawcy oraz zachowania tajemnicy przedsiębiorstwa.


Czy brak przepisów chroni pracownika?

Fakt, że obecnie w Polsce brakuje kompleksowych przepisów ustawowych regulujących korzystanie z AI w miejscu pracy, nie oznacza, że pracownik jest bezpieczny. Obowiązują ogólne normy prawa pracy, prawa autorskiego oraz regulacje dotyczące ochrony danych i tajemnicy przedsiębiorstwa, które mogą być podstawą do:

  • rozwiązania umowy o pracę bez wypowiedzenia (art. 52 §1 pkt 1 Kodeksu pracy),
  • roszczeń odszkodowawczych ze strony pracodawcy,
  • odpowiedzialności cywilnej za szkody wyrządzone osobom trzecim, np. klientom firmy.

Kiedy AI może doprowadzić do zwolnienia dyscyplinarnego?

Do rozwiązania umowy o pracę w trybie natychmiastowym może dojść, gdy:

✅ pracownik ujawni dane stanowiące tajemnicę przedsiębiorstwa, korzystając z AI,
działa wbrew wewnętrznemu zakazowi, np. zawartemu w regulaminie pracy lub polityce bezpieczeństwa,
użyje AI do stworzenia materiałów zawodowych, do których firma przenosi prawa autorskie, co podważa kwestię oryginalności dzieła,
✅ naruszy obowiązek zachowania poufności lub staranności zawodowej, wpisany w umowę lub zakres obowiązków.


Pracodawca odpowiada za skutki, ale… nie bez granic

Zgodnie z zasadami prawa pracy, to pracodawca odpowiada za działania pracownika wykonywane w ramach stosunku pracy. Jednak nie oznacza to pełnego zwolnienia pracownika z odpowiedzialności, zwłaszcza gdy:

  • działał z naruszeniem instrukcji lub zakazów,
  • nie zachował należytej staranności w posługiwaniu się narzędziem AI,
  • nie poinformował pracodawcy o użyciu sztucznej inteligencji przy realizacji projektu.

AI w HR, rekrutacji i analizie efektywności

Sztuczna inteligencja coraz częściej znajduje zastosowanie po stronie pracodawców – np. w obszarach:

  • selekcji i analizy CV,
  • planowania zatrudnienia,
  • oceny efektywności zespołów i jednostek organizacyjnych,
  • wykrywania nadmiarów kadrowych,
  • automatyzacji prostych działań operacyjnych.

To oznacza, że pracownik, który nie poinformuje przełożonego o użyciu zewnętrznego narzędzia AI, może nieświadomie zdublować procesy, zakłócić politykę kadrową lub zaniżyć wartość własnej pracy, czyniąc ją „zastępowalną” przez maszynę.


Czy AI można używać w celach prywatnych na służbowym komputerze?

To zależy. Jeżeli w firmie nie ma zakazu korzystania z komputerów do celów prywatnych, a pracownik nie przetwarza danych firmowych ani nie używa AI do pracy – np. korzysta z ChatGPT do zaplanowania wakacji – nie ma podstaw do wyciągania konsekwencji. Problem pojawia się, gdy:

  • AI zostaje użyta do przygotowania dokumentów służbowych,
  • generowane treści trafiają do klientów lub zarządu,
  • dane wejściowe naruszają tajemnicę lub politykę bezpieczeństwa firmy.

Co powinien zrobić odpowiedzialny pracodawca?

Wprowadzić regulamin lub politykę wewnętrzną dotyczącą AI,
Zakupić komercyjne, bezpieczne narzędzia AI, z kontrolą dostępu,
Ograniczyć lub zakazać korzystania z publicznych modeli AI (np. ChatGPT) w pracy,
Szkolenia dla pracowników – świadomość ryzyk związanych z AI to podstawa,
Weryfikować produkty pracy – raporty, analizy, prezentacje tworzone z pomocą AI muszą być sprawdzone pod kątem:

  • legalności (prawa autorskie),
  • merytoryki,
  • relacji z kontraktami klientów.

Podsumowanie – AI to potężne narzędzie, ale w pracy trzeba wiedzieć jak z niego korzystać

Sztuczna inteligencja w pracy może być ogromnym wsparciem – ale tylko wtedy, gdy jest używana świadomie, odpowiedzialnie i za wiedzą pracodawcy. Użycie AI w sposób samowolny, bez weryfikacji, naraża zarówno firmę, jak i pracownika na konsekwencje: od utraty zaufania, przez odpowiedzialność finansową, aż po zwolnienie dyscyplinarne.


📌Potrzebujesz pomocy prawnej? Skontaktuj się z nami

Każda sprawa prawna – nawet pozornie prosta – może kryć w sobie istotne ryzyka, o których łatwo zapomnieć bez specjalistycznej wiedzy. Przepisy często są niejednoznaczne, a ich interpretacja zależy od konkretnego stanu faktycznego, dotychczasowego orzecznictwa oraz przyjętej strategii procesowej.

Zanim podejmiesz jakiekolwiek kroki, warto skonsultować się z doświadczonym prawnikiem. Przeanalizujemy Twoją sytuację, wskażemy realne możliwości działania oraz pomożemy wybrać rozwiązanie najlepiej dopasowane do Twojego przypadku. Nasi eksperci z  i Kancelarii Prawnej „Prawnik Warszawa” wielokrotnie wspierali osoby, które uważały, że znajdują się w sytuacji bez wyjścia.

📞 665-444-245
📧 kontakt@prawnikwaw.com

Nie odkładaj decyzji na później – napisz lub zadzwoń już dziś. Pierwszym krokiem do rozwiązania problemu prawnego jest rozmowa z prawnikiem, który rzetelnie oceni Twoją sprawę.

🔹 Publikacja została przygotowana na podstawie aktualnego stanu prawnego i orzecznictwa przez ekspertów z Kancelarii Prawnej „Prawnik Warszawa”. W przypadku jakichkolwiek wątpliwości zalecamy indywidualną konsultację z prawnikiem.

To Top