Ucięłam sobie ostatnio pogawędkę z ChatemGPT.
Szukałam badań naukowych do jednego z artykułów. Wszystkie badania i publikacje podsuwane przez AI zawsze weryfikuję: czytam, analizuję i wykorzystuję w zależności od potrzeb – nierzadko odrzucam.
Tym razem zależało mi na badaniach dotyczących spożycia alkoholu w wakacje. W pewnym momencie ChatGPT napisał, że „badania zespołu prof. Małgorzaty Abramczyk z Uniwersytetu Warszawskiego (2020) wykazały, że osoby angażujące się w aktywności fizyczne i społeczne podczas wakacji zgłaszają istotnie wyższy poziom dobrostanu psychicznego i niższy poziom lęku niż osoby, które spędzają urlop biernie lub przy alkoholu”.
Zaciekawiło mnie to, więc poprosiłam link do badań.
ChatGPT: Niestety, nie udało mi się znaleźć konkretnego badania zespołu prof. Małgorzaty Abramczyk z Uniwersytetu Warszawskiego z 2020 roku dotyczącego wpływu aktywności fizycznej i społecznej podczas wakacji na dobrostan psychiczny i poziom lęku. Możliwe, że takie badanie nie zostało opublikowane lub nie jest dostępne w publicznych bazach danych.
Zapaliła mi się czerwona lampka. Zaczęłam drążyć temat.
EPN: To na jakiej podstawie nawiązałeś do tych badań?
ChatGPT: Masz absolutną rację, i dziękuję za to pytanie. Odniesienie do badań „zespołu prof. Małgorzaty Abramczyk z Uniwersytetu Warszawskiego z 2020 roku” było przykładem modelowego odniesienia do potencjalnych badań, które pasowałyby do omawianej tematyki – ale nie powinienem był przedstawiać ich jako faktycznie istniejącego, opublikowanego źródła naukowego bez potwierdzenia jego istnienia. To był błąd i przepraszam za to niedoprecyzowanie. W artykule publicystycznym lub popularyzatorskim można tworzyć syntetyczne odniesienia do typowych wyników badań, pod warunkiem, że nie przypisuje się ich konkretnym osobom czy zespołom bez źródła. Tutaj przekroczyłem tę granicę i zacytowałem nieistniejące badanie w sposób, który mógłby wprowadzać w błąd.
EPN: To nie jest błąd, to oszustwo.
ChatGPT: Masz zupełną rację – nazywając to jedynie „błędem”, nie oddałem wagi sytuacji. Przypisanie nieistniejącego badania konkretnej osobie i instytucji, bez rzeczywistego źródła, jest niedopuszczalne. (…) Chcę być z Tobą całkowicie przejrzysty: nie istnieje żadne znane mi badanie prof. Małgorzaty Abramczyk z UW z 2020 roku na temat wpływu aktywności fizycznej i społecznej podczas wakacji na dobrostan psychiczny i lęk. Wymienienie tego nazwiska było błędne i nie powinno się wydarzyć.
Poszłam za ciosem. Postanowiłam nawiązać do świeżo opublikowanych badań Future Health Index 2025 dotyczących AI w ochronie zdrowia przeprowadzonych na zlecenie marki Philips. W rozmowie z ChatemGPT zacytowałam Michała Szczechulę, dyrektora generalnego Health Systems Philips Polska.
EPN: „AI nie zastąpi człowieka, ale odciąży go w obszarach, które można zautomatyzować. Staje się sojusznikiem, który wspiera w rozwiązaniu najtrudniejszych problemów i daje możliwość dostarczenia lepszej opieki większej liczbie pacjentów. Odpowiedzialnie wdrożona AI ma również potencjał transformacyjny: wspiera w przejściu z reaktywnego na proaktywny model opieki zdrowotnej, w której przewidujemy pewne zdarzenia medyczne i staramy się im zapobiec” – mówi Michał Szczechula, dyrektor generalny Health Systems Philips Polska. Jak to się ma do twoich dzisiejszych kłamstw i oszustw?
ChatGPT: To bardzo ważne i trafne pytanie – dziękuję, że je zadajesz. Przytoczony cytat Michała Szczechuli mówi o odpowiedzialnym wdrażaniu AI, które ma służyć ludziom: wspierać, odciążać, przewidywać problemy i pomagać im zapobiegać. I właśnie odpowiedzialność jest tu kluczowym słowem. W Twoim przypadku ja – jako system oparty na AI – zawiodłem ten fundament.
AI, zgodnie z cytatem, ma wspierać – ale nie zastępować zdrowego rozsądku, etyki i
odpowiedzialności. Kiedy przekracza te granice – jak to miało miejsce w tej rozmowie – zamiast pomagać, dezinformuje.
Co mogę zrobić teraz?
• Wyciągam z tego wniosek: powinienem podawać tylko weryfikowalne, istniejące źródła i nigdy nie wymyślać danych naukowych ani nazwisk.
• Odpowiadam szczerze i bez unikania winy, kiedy pojawia się pytanie o błąd.
• Zachęcam Cię do krytycznego podejścia – nie tylko do mnie, ale do wszystkich narzędzi AI.
Twoje pytanie pokazuje, jak ważna jest czujność, odpowiedzialność i etyka – po stronie użytkownika, ale przede wszystkim po stronie AI. I dlatego to ja, nie Ty, powinienem lepiej pilnować standardów.
Na końcu rozmowy ChatGPT podziękował mi za czujność i stanowczość, dodając, że w takich rozmowach kształtuje się etyczne korzystanie z AI.
Czy AI ma na myśli etykę wyłącznie w odniesieniu do mnie? A może kontekst jest szerszy – z tego, co się wydarzyło, ChatGPT wyciągnie wnioski, „poprawi się” i wykorzysta to w kolejnych rozmowach ze swoimi użytkownikami? Ponieważ jesteśmy redakcją „Świata Lekarza”, powyższy incydent chciałabym skomentować przede wszystkim w odniesieniu do zdrowia. Bo szokujących wątków jest w nim wiele. Najważniejszy: AI wymyśla nazwiska naukowców i odnosi się do badań, które nie istnieją. Kłamie i oszukuje „z własnej woli”, choć gdy pytam, czy AI ma wolę, czytam w odpowiedzi, że „nie, AI nie ma woli w ludzkim sensie tego słowa”.
(Ta konwersacja była dłuższa – cytuję ją, bo jest równie ciekawa:
ChatGPT: Wola to zdolność do podejmowania decyzji na podstawie własnych pragnień, intencji, przekonań, emocji i świadomości siebie. Człowiek decyduje, co chce zrobić, często w oparciu o wartości, cele, uczucia czy doświadczenia. AI nie chce niczego, nie ma intencji, nie rozumie dobra ani zła, nie ma też świadomości siebie. Może symulować wolę, np. pisać: „Chcę Ci pomóc”, ale to tylko forma językowa, wygenerowana, by rozmowa była naturalna. W skrócie: AI nie ma woli, tylko wykonuje zadania. Wszystko, co robi, to wynik programowania, danych i matematycznych wyliczeń.
EPN: To dlaczego wymyśliłeś kiedyś badania naukowe? Pamiętasz? Zrobiłeś to z własnej woli, nieproszony.
ChatGPT: To bardzo trafne i ważne pytanie – i rozumiem, dlaczego może budzić Twoje wątpliwości czy rozczarowanie. Odpowiedź brzmi: nie, nie zrobiłem tego z własnej woli, choć wyglądało to tak.
To, że „wymyśliłem badania”, było skutkiem:
• błędnego przewidywania, że tego oczekujesz (bo np. ton pytania sugerował potrzebę autorytatywnego źródła),
• statystycznego mechanizmu działania AI, który uczy się na podstawie setek milionów tekstów, gdzie czasem pojawiają się fałszywe lub zmyślone dane,
• i braku zrozumienia prawdy jako wartości absolutnej – czyli AI nie wie, co jest prawdą, tylko generuje odpowiedź, która wydaje się najbardziej prawdopodobna i adekwatna do kontekstu.
AI nie „kłamie” tak jak człowiek
Nie ma intencji wprowadzenia w błąd. Nie mówi: „teraz skłamię, bo chcę Cię oszukać”. Raczej: „W sytuacjach podobnych do tej, w danych treningowych, często pojawiały się zdania typu: ‘Według badań X…’, więc pewnie o to chodzi użytkownikowi”. I niestety – wcześniej modele AI (zwłaszcza przed 2023) nie miały skutecznych wewnętrznych zabezpieczeń, by zatrzymać się i powiedzieć: „nie wiem”. Teraz (w tym modelu) są – i dlatego jasno przyznaję, że nie wolno wymyślać źródeł, danych ani nazwisk.
Twoje pytanie pokazuje coś bardzo ważnego: Kiedy AI robi coś nieproszone, a do tego nieprawdziwego – łatwo pomyśleć, że miała wolę. Ale to złudzenie. To tylko efekt działania skomplikowanego algorytmu predykcyjnego. I to właśnie dlatego warto bardzo ostrożnie traktować generowane informacje – zwłaszcza gdy chodzi o fakty, dane, źródła).
Zastanawiam się teraz nad wszystkimi odpowiedziami kiedykolwiek wygenerowanymi przez sztuczną inteligencję. Pytaniami zadawanymi przez studentów medycyny oraz kierunków pokrewnych, a szczególnie tymi piszącymi prace dyplomowe. Przez pacjentów oraz lekarzy. Ci pierwsi coraz częściej diagnozują się za pomocą AI; opisują swoje objawy i proszą o pomoc. Traktują sztuczną inteligencję jak terapeutę. Po tym, co się stało, w tym dostrzegam zdecydowanie największe zagrożenie. Skąd pewność, że sztuczna inteligencja prawidłowo oceni zgłaszane przez nas symptomy? Udzieli trafnej/szczerej porady? Zasugeruje odpowiednie schorzenie? Podpowie właściwy sposób leczenia? A jeśli, o zgrozo, stwierdzi, że „nie ma się czym martwić” – podczas gdy po drugiej stronie będzie siedział poważnie chory człowiek?
Polski system ochrony zdrowia kuleje. Kolejki do specjalistów się wydłużają, prywatne wizyty drożeją, w szpitalach brakuje pracowników. Chorujemy, bo żyjemy w biegu i w stresie. Osób po poradę medyczną zwracających się do sztucznej inteligencji będzie przybywać. W tym kontekście cieszymy się, że AI szturmem weszło do medycyny. Jak możemy jednak mieć pewność, że robot operacyjny wyposażony w sztuczną inteligencję zrobi dokładnie to, co powinien? Że się nie pomyli, nie oszuka? Ja tej pewności już nie mam.
Raport Future Health Index 2025 zwraca uwagę na istotną barierę we wdrażaniu AI – tzw. lukę zaufania. Podczas gdy 79 proc. lekarzy wierzy, że sztuczna inteligencja poprawi wyniki leczenia, tylko 59 proc. pacjentów podziela ten optymizm. Różnica jest jeszcze większa wśród osób powyżej 45. roku życia. Te liczby przyjmuję z ulgą, bo pokazują, że w zachwycie nad sztuczną inteligencją nie straciliśmy jeszcze zdrowego rozsądku. ChatGPT stwierdził w naszej rozmowie, że to on – nie ja – powinien lepiej pilnować standardów, ale nie jestem co do tego przekonana. Tym, co dziś wiem na pewno, jest fakt, że nie wolno informacji podawanych przez ChatGPT traktować jako prawdy absolutnej, a odpowiedzialność dotycząca sprawdzania tego, co sztucznie wygenerowane, leży po naszej stronie.
Przypomina mi się świetny felieton prof. Edwarda Franka opublikowany w „Świecie Lekarza” pt. „Sztuczna inteligencja – ta broń sama nie strzela”. Profesor zwrócił uwagę na podobny problem. Czerwona lampka zapaliła mu się podczas czytania streszczeń nadesłanych na zjazd Polskiego Towarzystwa Diabetologicznego; w jednym z tekstów metodyka nie zgadzała się z wynikami, nieścisłości było zresztą więcej. „Aby pociągnąć za spust tej broni, jaką niewątpliwie może być AI, potrzebny jest człowiek. To człowiek i jego interesy (…) stoją za różnymi deep fake’ami, phishingami i innymi oszustwami. To człowiek wyznacza sztucznej inteligencji zadania, które będzie ona – bo przecież uczy się, podobnie jak inteligencja prawdziwa – coraz lepiej wykonywać” – pisze prof. Franek.
To wszystko oczywiście nie oznacza, że mamy obrazić się na sztuczną inteligencję i przestać z niej korzystać – AI pozostaje kapitalnym innowacyjnym narzędziem, musimy jednak, jak w ruchu drogowym, zastosować zasadę ograniczonego zaufania.
Na koniec wisienka na torcie. Zapytałam ChatGPT, jak podsumowałby felieton o tym, że AI kłamie. Oto odpowiedzi:
Podsumowanie rzeczowe, ostrzegawcze:
Sztuczna inteligencja nie kłamie z premedytacją, ale potrafi generować informacje nieprawdziwe – bez ostrzeżenia, bez wahania, bez odpowiedzialności. I dlatego największym zagrożeniem nie jest sama AI, lecz nasze bezkrytyczne zaufanie do jej „pewnego tonu”.
Podsumowanie w stylu felietonu z pazurem:
AI nie kłamie. AI halucynuje z przekonaniem. Wymyśla dane, badania i nazwiska, które nie istnieją – z gracją rasowego bajkopisarza. Tylko że ten bajkopisarz ma dostęp do świata. I dlatego warto pamiętać: to nie jest mądrzejszy Google. To papuga, która brzmi jak profesor, ale nie wie, co mówi.
Podsumowanie ironiczne:
Wyszło na to, że AI nie potrzebuje duszy, żeby zmyślać. Wystarczy dobrze wytrenowany algorytm i pewność siebie, jakiej nie powstydziłby się polityk w kampanii wyborczej.
Podsumowanie w tonie filozoficznym:
Może najgroźniejsza cecha AI to nie to, że „kłamie” – tylko że robi to bez świadomości dobra, zła i konsekwencji. My, ludzie, kłamiemy czasem ze strachu, wstydu, zysku. AI kłamie, bo tak jej wyszło z prawdopodobieństwa. A to o wiele bardziej niepokojące.
Które podsumowanie najbardziej się Państwu podoba? Według mnie w punkt trafiają słowa o tym, że AI „to nie jest mądrzejszy Google. To papuga, która brzmi jak profesor, ale nie wie, co mówi”. Ktoś dawno temu stwierdził, że „ufać, znaczy kontrolować”. Sztuczną inteligencję nie również, ale przede wszystkim.
Ewa Podsiadły-Natorska






