Czy prowadzący łatwo rozpozna pracę napisaną przez Chat GPT?

Czy łatwo jest rozpoznać pracę naukową napisaną przy pomocy Chatu GPT? Zadaliśmy to pytanie pracownikowi naukowemu, który od kilku miesięcy zmaga się z nagłym wzrostem liczby prac napisanych przy pomocy sztucznej inteligencji. Z perspektywy pracownika naukowego rozpoznanie takiej pracy jest bardzo łatwe, by nie powiedzieć: banalne i widoczne na pierwszy rzut oka.

Charakterystyczny styl: skąd ten zapach?

Pierwszą rzeczą, która rzuca się w oczy podczas czytania tekstu stworzonego przez Chat GPT, jest jego charakterystyczny styl. Są to czasem subtelne odcienie, które zdecydowanie są bardziej typowe dla sztucznej inteligencji niż dla ludzkiego autora. Mogą to być np. zaskakujące konstrukcje zdaniowe lub sformułowania, które trudno odnaleźć w naturalnych pracach badawczych. To jakby tajemny odcisk palca, który wprawdzie nie jest łatwy do opisania, ale wyczulony prowadzący szybko go wychwyci, zwłaszcza jeśli pracuje na uczelni nie od wczoraj i miał do czynienia wcześniej z samodzielnie pisanymi pracami, a od pewnego czasu dostaje od swoich studentów teksty jakby pisane przez kalkę stylistyczną.

Brak autorskiego ducha: więcej algorytmu, mniej emocji

Pracę napisaną przez Chat GPT czyta się jak zapis generowany przez algorytmy, pozbawiony tego autorskiego ducha, który wyróżnia prace napisane osobiście i z pasją, emocjonalnym stosunkiem do tematu czy zagadnienia. Prowadzący, którzy czytają i oceniają prace na co dzień, potrafią wyczuć różnicę między tekstem, który powstał w wyniku głębokiego zrozumienia tematu i osobistej refleksji, a pracą, która została wygenerowana na podstawie zadanego hasła.
 

Podczas czytania prac studentów bardzo łatwo jest wyczuć, który punkt sprawił danej osobie trudność, który ją znudził, a który zainspirował. Wszystkich tych ludzkich aspektów brakuje pracom napisanym przy użyciu Chatu GPT i zapewne długo jeszcze tak pozostanie. Maszyna traktuje temat zadaniowo, nie emocjonalnie, a emocjonalny aspekt obecny jest nawet w bardzo profesjonalnie napisanych pracach naukowych.

Zbytnia perfekcja: gdy perfekcja wzbudza podejrzenia

Innym aspektem, który może wzbudzić podejrzenia prowadzącego, jest zbytnia perfekcja w tekście. Często prace stworzone przez Chat GPT brzmią (czasem pozornie, bo często roi się w nich od błędów logicznych czy stylistycznych, mimo pozornej doskonałości i logiki wywodu) jakby zostały napisane przez grupę ekspertów w danej dziedzinie. To może być sygnałem, że za napisaniem danej pracy stoi maszyna, a nie człowiek. Ludzie, w przeciwieństwie do algorytmów, potrafią wprowadzić subtelne niuanse i ludzki charakter do swoich prac, a popełniane przez człowieka błędy wynikają z zupełnie innych przyczyn niż te, które zdarzają się Chatowi GPT.
 

Przykładem mogą być błędy składniowe: Chat GPT także je popełnia, ale zdania z błędami nadal brzmią mądrze i noszą znamiona naukowości. Dlatego często nie są wychwytywane przez studentów, a dla prowadzących są jednoznacznym wyznacznikiem, że praca została stworzona przez algorytm.

Warianty tematyczne: w jakim miejscu jesteśmy?

Chat GPT czasem wykazuje tendencję do prezentowania różnorodnych wariantów tematycznych w jednym tekście. To może być trochę niecodzienne, ponieważ autor ludzki zazwyczaj skupia się na jednej ścieżce argumentacji lub analizy. Dla prowadzącego to może być sygnałem, że w takiej pracy udział biorą jakby różne głosy, co wydaje się mało prawdopodobne w przypadku pracy napisanej przez jedną osobę.
 

Warto pamiętać, że korzystanie z technologii, takiej jak Chat GPT, to fantastyczny sposób na uzyskanie inspiracji i lepszego zrozumienia tematu. Jednak prowadzący mają zwykle wieloletnie doświadczenie w pisaniu oraz ocenie prac i szybko wyczują, który tekst mógł powstać z udziałem sztucznej inteligencji. Dlatego warto używać nowoczesnych narzędzi z rozwagą i zawsze pamiętać, że praca, w którą realny człowiek włożył swój wysiłek i pasję, zawsze będzie się wyróżniać.