Sztuczna inteligencja

Jak pisać prompty do ChatGPT bez myślenia jak programista

V

Zobacz, dlaczego dobry prompt to nie kod, tylko porządne zlecenie. Dzięki temu szybciej dostaniesz sensowną odpowiedź i stracisz mniej czasu.

Tomasz Karczmarczyk
AutorTomasz Karczmarczyk
5 minut czytania

Jak pisać prompty do ChatGPT bez myślenia jak programista

Prompt nie jest programem dla maszyny, lecz zleceniem dla modelu, który bez kontekstu i jasno określonych ram zaczyna sam wypełniać luki.

Dlatego problem zwykle nie polega na tym, że „nie znasz dobrych formuł”, tylko na tym, że dajesz za mało danych do sensownej pracy. Kiedy to zrozumiesz, promptowanie przestaje wyglądać jak dziwna sztuczka, a zaczyna przypominać zwykłe pilnowanie wykonania zadania.

Prompt nie zapisuje procedury

Programowanie rozkłada pracę na jednoznaczne kroki. Komputer nie ma się niczego domyślać. Ma wykonać dokładnie to, co dostał.

Model działa inaczej. Dostaje cel, trochę kontekstu i ma dowieźć wynik. Jeśli brakuje szczegółów, nie zatrzymuje się z godnością. Zaczyna uzupełniać luki.

To dlatego promptowi bliżej do sensownego zlecenia niż do kodu. Nie mówisz: „wykonaj krok 1, 2, 3 i 4”. Mówisz raczej: „oto sytuacja, oto granice, oto wynik, który uznam za poprawny”.

Co naprawdę robi dobry prompt

Dobry prompt nie steruje każdym ruchem modelu. Wyznacza tor, po którym model ma się poruszać. To duża różnica.

W praktyce taki prompt zwykle zawiera cztery rzeczy:

  • Kontekst – skąd bierze się zadanie i co model ma wiedzieć, zanim ruszy.
  • Cel – co dokładnie ma powstać.
  • Ograniczenia – czego nie wolno dopowiadać, zmieniać ani upiększać.
  • Kryteria odbioru – po czym poznasz, że wynik nadaje się do użycia.

Bez tych czterech elementów model robi to, co robi aż za dobrze: produkuje odpowiedź brzmiącą rozsądnie, także wtedy, gdy rozsądna nie jest. To właśnie stąd bierze się większość rozczarowań.

Skąd biorą się złe odpowiedzi

Wiele osób zakłada, że zły wynik oznacza „słaby model”. Czasem tak bywa. Częściej jednak problem jest prostszy i mniej efektowny: zlecenie miało luki.

Jeśli wpiszesz „napisz ofertę dla klienta”, model sam dobierze ton, zakres, długość i poziom szczegółu, a czasem nawet dopisze rzeczy, których nikt mu nie podał. Nie robi tego złośliwie. Robi to dlatego, że ma domknąć zadanie, a nie prowadzić dochodzenie.

Sedno pracy z AI leży więc w zarządzaniu niejednoznacznością. Im mniej miejsca na zgadywanie, tym mniej „pomocnej odpowiedzi”, którą potem trzeba wyrzucić do kosza.

Przykład z pracy

Załóżmy, że prowadzisz firmę usługową i chcesz szybciej odpowiadać na zapytania o ofertę. Pierwszy odruch bywa taki:

Napisz ofertę na nową stronę internetową dla kancelarii.

Taki prompt zostawia modelowi zbyt dużo swobody. Nie wiadomo, czy chodzi o mail, wycenę, listę prac czy próbę umówienia rozmowy. Nie wiadomo też, czego nie wolno wymyślać.

Wersja używalna wygląda bardziej tak:

Przygotuj odpowiedź na zapytanie klienta.
Kontekst: kancelaria licząca sześć osób chce nową stronę i formularz kontaktowy.
Cel: doprowadzić do rozmowy, nie robić jeszcze wyceny.
Format: mail do 180 słów.
Ma zawierać: krótkie podsumowanie potrzeb klienta, trzy pytania doprecyzowujące, propozycję rozmowy.
Nie wymyślaj zakresu prac, terminów ani ceny.

W tym przykładzie dobry wynik poznasz po tym, że:

  • ma formę maila i nie przekracza 180 słów,
  • krótko podsumowuje potrzeby klienta,
  • zawiera trzy pytania doprecyzowujące,
  • prowadzi do rozmowy, a nie do przedwczesnej wyceny,
  • nie dopowiada zakresu prac, terminów ani ceny.

Jeśli odpowiedź nie spełnia tych warunków, nie jest jeszcze gotowa do użycia.

To wciąż nie jest procedura. Model sam układa treść. Różnica polega na tym, że porusza się po wyznaczonym pasie, a nie po całym parkingu.

Iteracja to nadzór, nie magia

Gdy wynik jest słaby, wiele osób zadaje kolejne pytanie i liczy, że za trzecim razem „zaskoczy”. To trochę jak poprawianie źle zleconej pracy przez powtarzanie tego samego zdania głośniej. Efekt zwykle pozostaje mizerny.

Sensowna iteracja wygląda inaczej. Doprecyzowujesz brakujący warunek, zawężasz pole manewru albo pokazujesz przykład wyniku, który uznasz za dobry. Nie naprawiasz modelu. Naprawiasz zlecenie.

Najczęstsze błędy

  • Samo polecenie bez kontekstu – model dostaje zadanie, ale nie wie, po co ono istnieje.
  • Prośba o kilka rzeczy naraz – odpowiedź robi się rozwlekła, niespójna i zwykle słabsza od każdej z części rozpatrywanej osobno.
  • Brak zakazów – jeśli nie napiszesz, czego nie wolno dopowiadać, model chętnie to dopowie.
  • Brak kryteriów odbioru – dostajesz tekst „jakiś”, bo nie padło, jaki ma być.
  • Poprawianie odpowiedzi bez wskazania, co jest nie tak – wtedy kręcisz się w kółko, tylko szybciej.

Najgorsza pomyłka wygląda jednak inaczej. To wiara, że promptowanie jest nową odmianą programowania i że wystarczy opanować tajne słowa, by model nagle zaczął pracować bezbłędnie. Nie zacznie.

Moda na traktowanie promptu jak kodu bierze się często z zawodowej pychy. Łatwiej udawać, że powstała nowa, święta dziedzina, niż przyznać, że główna robota polega na pilnowaniu jakości pracy bardzo szybkiego i bardzo pewnego siebie asystenta.

Co z tego wynika w praktyce

Największy zysk daje zwykle nie lepszy model, tylko lepszy opis zadania. To akurat dobra wiadomość, bo nie wymaga tygodnia nauki. Wymaga chwili trzeźwości przed naciśnięciem Enteru.

W firmie usługowej najrozsądniej zacząć od jednego powtarzalnego zadania: odpowiedzi na zapytania, streszczania długich maili, porządkowania notatek ze spotkań albo tworzenia pierwszej wersji oferty. Właśnie wtedy najszybciej widać, czy prompt naprawdę oszczędza czas, czy tylko produkuje ładny odpad.

Przy każdym takim zadaniu wystarcza prosty układ:

  • Co model dostaje na wejściu.
  • Co ma oddać na wyjściu.
  • Czego nie ma prawa wymyślać.
  • Po czym poznasz, że wynik nadaje się do użycia.

To cały sekret. Reszta to pilnowanie jakości pracy asystenta, który brzmi pewnie także wtedy, gdy właśnie skręcił nie tam, gdzie trzeba.

FAQ

Czy promptowanie to programowanie?

Nie. Programowanie mówi maszynie dokładnie, co ma zrobić krok po kroku. Promptowanie ustawia cel, granice i wynik, a model sam szuka drogi.

Czy trzeba umieć pisać technicznie?

Nie. Bardziej przydaje się umiejętność jasnego zlecania pracy niż techniczny styl. Im prościej i konkretniej opisane zadanie, tym zwykle lepszy rezultat.

Dlaczego ChatGPT odpowiada źle, choć pytanie brzmi sensownie?

Bo „sensownie” dla człowieka nie zawsze znaczy „jednoznacznie” dla modelu. Jeśli zostawisz luki, model je wypełni. Czasem trafnie, a czasem z fantazją.

Czy istnieją słowa, które zawsze poprawiają wynik?

Nie. Gotowe formuły czasem pomagają, ale największą dźwignią pozostają kontekst, ograniczenia i kryteria odbioru.

Kiedy prompt nie wystarcza?

Wtedy, gdy sam proces jest bałaganem. Jeśli w firmie nie wiadomo, jakie dane są wejściem, jaki ma być wynik i kto go akceptuje, model tylko przyspieszy chaos.

Co dalej

Model trzeba prowadzić jak wykonawcę, a nie traktować jak kalkulator. Gdy odpowiedź jest słaba, problem zwykle nie wynika z braku magii, tylko ze słabego zlecenia.

Tomasz Karczmarczyk
O autorze
Tomasz Karczmarczyk
Jestem edukatorem AI i inżynierem oprogramowania. Pomagam firmom odzyskać czas, który codziennie ginie w powtarzalnych zadaniach. Audytuję procesy i narzędzia, wdrażam automatyzacje i buduję zespoły wspierane przez AI. Założyłem także PressShield – markę specjalizującą się w cyberbezpieczeństwie witryn opartych na WordPressie.
V

Powiązane

Zrozumienie jednego strzępu to za mało, by pojąć nadchodzące zmiany. Zanurz dłonie głębiej w kurz archiwum i odczytaj inne z tego samego stosu.

Gdy firma tonie w chaosie, AI dolewa tylko paliwa
4 minuty czytania

Gdy firma tonie w chaosie, AI dolewa tylko paliwa

Zobacz, dlaczego AI bez porządku w procesach tylko skaluje błędy i jak przygotować firmę, by automatyzacja naprawdę działała.

Claude Code w terminalu. Skąd bierze się przewaga
4 minuty czytania

Claude Code w terminalu. Skąd bierze się przewaga

Zobacz, dlaczego Claude Code w terminalu skraca drogę od polecenia do wyniku i lepiej pasuje do realnej pracy na plikach.

Jak AI pozwala robić więcej bez nowych etatów
6 minut czytania

Jak AI pozwala robić więcej bez nowych etatów

Zobacz, jak AI pozwala małej firmie zrobić więcej bez dokładania etatów i gdzie kończy się oszczędność, a zaczyna kosztowna iluzja.

AI nie myśli – przewiduje kolejny kawałek tekstu
6 minut czytania

AI nie myśli – przewiduje kolejny kawałek tekstu

Zobacz, dlaczego AI nie „rozumie” jak człowiek, tylko przewiduje kolejne fragmenty tekstu – i co to zmienia w codziennym użyciu.

AI zabierze alibi. Zostawi pytanie o wartość
6 minut czytania

AI zabierze alibi. Zostawi pytanie o wartość

AI skraca maile, robi szkice i raporty. Zobacz, dlaczego dziś drożeje nie wykonanie, tylko trafna ocena problemu i decyzja.

Jak testować pomysły szybciej, zanim pochłoną budżet
5 minut czytania

Jak testować pomysły szybciej, zanim pochłoną budżet

AI skraca czas od pomysłu do prototypu z tygodni do godzin. Dowiedz się, jak iteracyjny model pracy chroni firmę przed kosztownymi błędami.