Czy mogę wklejać dane klientów do ChatGPT?
Wklejenie danych firmowych do ChatGPT to już wyciek – zanim cokolwiek się stanie. Dowiedz się, czym jest Shadow AI i co konkretnie ryzykujesz.


Wyciek danych firmowych nie zaczyna się od włamania. Zaczyna się od okna przeglądarki, pola tekstowego i odruchu: „wrzucę to do czata, będzie szybciej”.
To nie jest przestroga na wyrost. To opis mechanizmu, który działa w tej chwili w dziesiątkach firm – bo 47% użytkowników generatywnej AI w miejscu pracy korzysta z prywatnych kont poza wiedzą i kontrolą firmy. Każdy z tych promptów to potencjalne dane, które właśnie opuściły firmową infrastrukturę.
Co to jest Shadow AI
Shadow AI to używanie narzędzi sztucznej inteligencji w pracy bez zgody lub nadzoru działu IT i bezpieczeństwa. Nie musi być złośliwe. Wystarczy prywatne konto w ChatGPT użyte do zadania służbowego.
Nazwa sugeruje coś zaplanowanego i mrocznego. W rzeczywistości chodzi o codzienne skróty: „wkleję tę umowę, żeby dostać streszczenie”, „wrzucę tego maila od klienta, żeby napisać odpowiedź”, „dam mu ten fragment kodu, żeby znalazł błąd”.
Żaden z tych odruchów nie wygląda jak incydent bezpieczeństwa. Żaden też nim nie jest – dopóki nie sprawdzisz, co faktycznie się w tym momencie dzieje z danymi.
Prompt nie jest notatnikiem
Prompt – czyli to, co wpisujesz w pole czatu – nie jest prywatną notatką. To przekazanie treści do cudzej infrastruktury.
Kiedy wklejasz dane do zewnętrznego modelu AI, lądują one na serwerach firmy trzeciej. Firmy, z którą twoja organizacja najprawdopodobniej nie ma podpisanej umowy powierzenia przetwarzania danych. Bez tej umowy samo przekazanie danych osobowych klientów jest niezgodne z RODO – niezależnie od tego, co ta firma zrobi z danymi dalej.
Okno czatu nie działa jak zeszyt. Działa jak faks wysyłany do kogoś, kogo nie znasz i kto nie jest związany żadną umową poufności.
Jak to wygląda w praktyce
Pracownik obsługi klienta dostaje trudnego maila. Kopiuje go do ChatGPT, żeby napisać odpowiedź. Mail zawiera imię, nazwisko i szczegóły problemu klienta.
Dane właśnie opuściły firmową infrastrukturę. Bez śladu w logach. Bez audytu. Bez umowy. Bez zgody klienta.
Albo: programista wkleja fragment kodu z projektu dla klienta, żeby zdebugować błąd. Kod zawiera strukturę bazy danych i logikę biznesową. Też poleciał. Też bez śladu. I żaden alarm nie zadzwonił, bo technicznie – żaden alarm nie istnieje.
Najczęstsze błędy
„Wkleiłem tylko kawałek.”
Fragment roadmapy nadal zdradza plan. Fragment kodu nadal zdradza logikę systemu. Fragment rekordu klienta nadal może być daną osobową w rozumieniu RODO. „Kawałek” to nie jest kategoria prawna ani bezpieczna ilość.
„OpenAI nie trenuje na danych firmowych.”
Może tak, może nie – zależy od wersji konta i aktualnych warunków subskrypcji. Ale to nawet nie jest główny problem. Dane opuściły Twoje środowisko, trafiły poza UE/EOG, do infrastruktury bez umowy powierzenia. To już naruszenie – niezależnie od tego, co dostawca zrobi z nimi dalej.
„U nas nic się jeszcze nie stało.”
Klasyczna iluzja oparta na niewidoczności skutków. Incydenty związane z Shadow AI są wykrywane średnio po 247 dniach. Ponad osiem miesięcy operowania w przekonaniu, że wszystko jest w porządku.
Co z tego wynika w praktyce
Granica ryzyka leży wcześniej, niż większość firm chce przyznać. Nie przy incydencie. Nie przy audycie. Przy pierwszym prompcie z danymi firmowymi.
To oznacza konkretne konsekwencje:
- Każde wklejenie danych klienta do zewnętrznego AI bez umowy powierzenia to potencjalne naruszenie RODO – bez szarej strefy.
- Dane o strategii, kodzie i klientach, które trafiły do zewnętrznych modeli, są poza kontrolą firmy – bezterminowo.
- Zasady retencji, klasyfikacji danych i kontroli dostępu przestają działać w momencie, gdy ktoś omija je przez okno przeglądarki.
Jeśli chcesz korzystać z AI w firmie bez tego ryzyka, punktem wyjścia jest proste ustalenie: które dane mogą trafiać do zewnętrznych narzędzi, a które nie. A potem trzymanie się tej listy – zamiast liczyć na to, że pracownicy sami to rozgryzą.
FAQ
Czym jest Shadow AI?
Shadow AI to każde narzędzie AI używane w miejscu pracy bez wiedzy, zgody lub nadzoru IT i bezpieczeństwa firmy. Najczęściej nie wynika ze złej woli – wystarczy prywatne konto w ChatGPT użyte do zadania służbowego.
Czy ChatGPT jest bezpieczny dla firm?
Bezpłatna wersja ChatGPT nie spełnia wymagań RODO dla firm przetwarzających dane klientów – brakuje umowy powierzenia danych. Wersje biznesowe oferują mocniejsze gwarancje, ale i tak wymagają formalnego wdrożenia i akceptacji przez dział prawny lub IT.
Jakie dane nie powinny trafiać do zewnętrznych narzędzi AI?
Dane osobowe klientów i pracowników, fragmenty umów i dokumentów NDA, kod źródłowy, roadmapy produktowe, dane finansowe i wszelkie informacje objęte tajemnicą przedsiębiorstwa.
Jak korzystać z AI w firmie bez ryzyka wycieku?
Dwie drogi: wdrożyć firmowe narzędzie AI z odpowiednimi umowami albo jasno zdefiniować, jakie kategorie danych mogą trafiać do zewnętrznych modeli. Bez takiej polityki każdy pracownik działa na własne – i firmowe – ryzyko.
Co dalej
Warto zacząć od prostego audytu nawyków: co dziś pracownicy kopiują do czatów, żeby było szybciej. Tam zwykle siedzi problem.