Coraz więcej pracowników w biurach, firmach doradczych, instytucjach i urzędach korzysta z ogólnodostępnych narzędzi AI, takich jak ChatGPT czy Copilot. Ułatwiają one tworzenie analiz, raportów, ofert, a nawet materiałów marketingowych. Jednak nie każdy zdaje sobie sprawę, że pozornie niewinne „usprawnienie” codziennej pracy może narazić go na poważne konsekwencje służbowe, a nawet zwolnienie dyscyplinarne.
AI w miejscu pracy – czego nie robić?
W przypadku gdy pracodawca nie uregulował korzystania ze sztucznej inteligencji, a pracownik korzysta z niej w pracy bez żadnych wytycznych – ryzyko naruszeń nadal istnieje. Problem zaczyna się w chwili, gdy:
- pracownik używa AI na służbowym komputerze bez zgody pracodawcy,
- udostępnia w promptach poufne dane firmy (np. informacje finansowe, umowy, wewnętrzne raporty),
- działa wbrew zakazowi korzystania z AI, określonemu w regulaminie lub poleceniu służbowym.
Takie zachowanie może być uznane za naruszenie podstawowych obowiązków pracowniczych, w szczególności obowiązku lojalności wobec pracodawcy oraz zachowania tajemnicy przedsiębiorstwa.
Czy brak przepisów chroni pracownika?
Fakt, że obecnie w Polsce brakuje kompleksowych przepisów ustawowych regulujących korzystanie z AI w miejscu pracy, nie oznacza, że pracownik jest bezpieczny. Obowiązują ogólne normy prawa pracy, prawa autorskiego oraz regulacje dotyczące ochrony danych i tajemnicy przedsiębiorstwa, które mogą być podstawą do:
- rozwiązania umowy o pracę bez wypowiedzenia (art. 52 §1 pkt 1 Kodeksu pracy),
- roszczeń odszkodowawczych ze strony pracodawcy,
- odpowiedzialności cywilnej za szkody wyrządzone osobom trzecim, np. klientom firmy.
Kiedy AI może doprowadzić do zwolnienia dyscyplinarnego?
Do rozwiązania umowy o pracę w trybie natychmiastowym może dojść, gdy:
✅ pracownik ujawni dane stanowiące tajemnicę przedsiębiorstwa, korzystając z AI,
✅ działa wbrew wewnętrznemu zakazowi, np. zawartemu w regulaminie pracy lub polityce bezpieczeństwa,
✅ użyje AI do stworzenia materiałów zawodowych, do których firma przenosi prawa autorskie, co podważa kwestię oryginalności dzieła,
✅ naruszy obowiązek zachowania poufności lub staranności zawodowej, wpisany w umowę lub zakres obowiązków.
Pracodawca odpowiada za skutki, ale… nie bez granic
Zgodnie z zasadami prawa pracy, to pracodawca odpowiada za działania pracownika wykonywane w ramach stosunku pracy. Jednak nie oznacza to pełnego zwolnienia pracownika z odpowiedzialności, zwłaszcza gdy:
- działał z naruszeniem instrukcji lub zakazów,
- nie zachował należytej staranności w posługiwaniu się narzędziem AI,
- nie poinformował pracodawcy o użyciu sztucznej inteligencji przy realizacji projektu.
AI w HR, rekrutacji i analizie efektywności
Sztuczna inteligencja coraz częściej znajduje zastosowanie po stronie pracodawców – np. w obszarach:
- selekcji i analizy CV,
- planowania zatrudnienia,
- oceny efektywności zespołów i jednostek organizacyjnych,
- wykrywania nadmiarów kadrowych,
- automatyzacji prostych działań operacyjnych.
To oznacza, że pracownik, który nie poinformuje przełożonego o użyciu zewnętrznego narzędzia AI, może nieświadomie zdublować procesy, zakłócić politykę kadrową lub zaniżyć wartość własnej pracy, czyniąc ją „zastępowalną” przez maszynę.
Czy AI można używać w celach prywatnych na służbowym komputerze?
To zależy. Jeżeli w firmie nie ma zakazu korzystania z komputerów do celów prywatnych, a pracownik nie przetwarza danych firmowych ani nie używa AI do pracy – np. korzysta z ChatGPT do zaplanowania wakacji – nie ma podstaw do wyciągania konsekwencji. Problem pojawia się, gdy:
- AI zostaje użyta do przygotowania dokumentów służbowych,
- generowane treści trafiają do klientów lub zarządu,
- dane wejściowe naruszają tajemnicę lub politykę bezpieczeństwa firmy.
Co powinien zrobić odpowiedzialny pracodawca?
✅ Wprowadzić regulamin lub politykę wewnętrzną dotyczącą AI,
✅ Zakupić komercyjne, bezpieczne narzędzia AI, z kontrolą dostępu,
✅ Ograniczyć lub zakazać korzystania z publicznych modeli AI (np. ChatGPT) w pracy,
✅ Szkolenia dla pracowników – świadomość ryzyk związanych z AI to podstawa,
✅ Weryfikować produkty pracy – raporty, analizy, prezentacje tworzone z pomocą AI muszą być sprawdzone pod kątem:
- legalności (prawa autorskie),
- merytoryki,
- relacji z kontraktami klientów.
Podsumowanie – AI to potężne narzędzie, ale w pracy trzeba wiedzieć jak z niego korzystać
Sztuczna inteligencja w pracy może być ogromnym wsparciem – ale tylko wtedy, gdy jest używana świadomie, odpowiedzialnie i za wiedzą pracodawcy. Użycie AI w sposób samowolny, bez weryfikacji, naraża zarówno firmę, jak i pracownika na konsekwencje: od utraty zaufania, przez odpowiedzialność finansową, aż po zwolnienie dyscyplinarne.
📌Potrzebujesz pomocy prawnej? Skontaktuj się z nami
Każda sprawa prawna – nawet pozornie prosta – może kryć w sobie istotne ryzyka, o których łatwo zapomnieć bez specjalistycznej wiedzy. Przepisy często są niejednoznaczne, a ich interpretacja zależy od konkretnego stanu faktycznego, dotychczasowego orzecznictwa oraz przyjętej strategii procesowej.
Zanim podejmiesz jakiekolwiek kroki, warto skonsultować się z doświadczonym prawnikiem. Przeanalizujemy Twoją sytuację, wskażemy realne możliwości działania oraz pomożemy wybrać rozwiązanie najlepiej dopasowane do Twojego przypadku. Nasi eksperci z i Kancelarii Prawnej „Prawnik Warszawa” wielokrotnie wspierali osoby, które uważały, że znajdują się w sytuacji bez wyjścia.
📞 665-444-245
📧 kontakt@prawnikwaw.com
Nie odkładaj decyzji na później – napisz lub zadzwoń już dziś. Pierwszym krokiem do rozwiązania problemu prawnego jest rozmowa z prawnikiem, który rzetelnie oceni Twoją sprawę.
🔹 Publikacja została przygotowana na podstawie aktualnego stanu prawnego i orzecznictwa przez ekspertów z Kancelarii Prawnej „Prawnik Warszawa”. W przypadku jakichkolwiek wątpliwości zalecamy indywidualną konsultację z prawnikiem.
