Czy łatwo jest rozpoznać pracę naukową napisaną przy pomocy Chatu GPT? Zadaliśmy to pytanie pracownikowi naukowemu, który od kilku miesięcy zmaga się z nagłym wzrostem liczby prac napisanych przy pomocy sztucznej inteligencji. Z perspektywy pracownika naukowego rozpoznanie takiej pracy jest bardzo łatwe, by nie powiedzieć: banalne i widoczne na pierwszy rzut oka.
Pierwszą rzeczą, która rzuca się w oczy podczas czytania tekstu stworzonego przez Chat GPT, jest jego charakterystyczny styl. Są to czasem subtelne odcienie, które zdecydowanie są bardziej typowe dla sztucznej inteligencji niż dla ludzkiego autora. Mogą to być np. zaskakujące konstrukcje zdaniowe lub sformułowania, które trudno odnaleźć w naturalnych pracach badawczych. To jakby tajemny odcisk palca, który wprawdzie nie jest łatwy do opisania, ale wyczulony prowadzący szybko go wychwyci, zwłaszcza jeśli pracuje na uczelni nie od wczoraj i miał do czynienia wcześniej z samodzielnie pisanymi pracami, a od pewnego czasu dostaje od swoich studentów teksty jakby pisane przez kalkę stylistyczną.
Pracę napisaną przez Chat GPT czyta się jak zapis generowany
przez algorytmy, pozbawiony tego autorskiego ducha, który wyróżnia prace
napisane osobiście i z pasją, emocjonalnym stosunkiem do tematu
czy zagadnienia. Prowadzący, którzy czytają i oceniają prace
na co dzień, potrafią wyczuć różnicę między tekstem, który powstał
w wyniku głębokiego zrozumienia tematu i osobistej refleksji, a pracą,
która została wygenerowana na podstawie zadanego hasła.
Podczas czytania prac studentów bardzo łatwo jest wyczuć, który punkt sprawił danej osobie trudność, który ją znudził, a który zainspirował. Wszystkich tych ludzkich aspektów brakuje pracom napisanym przy użyciu Chatu GPT i zapewne długo jeszcze tak pozostanie. Maszyna traktuje temat zadaniowo, nie emocjonalnie, a emocjonalny aspekt obecny jest nawet w bardzo profesjonalnie napisanych pracach naukowych.
Innym aspektem, który może wzbudzić podejrzenia prowadzącego, jest
zbytnia perfekcja w tekście. Często prace stworzone przez Chat GPT
brzmią (czasem pozornie, bo często roi się w nich od błędów logicznych
czy stylistycznych, mimo pozornej doskonałości i logiki wywodu) jakby
zostały napisane przez grupę ekspertów w danej dziedzinie. To może być
sygnałem, że za napisaniem danej pracy stoi maszyna, a nie człowiek.
Ludzie, w przeciwieństwie do algorytmów, potrafią wprowadzić subtelne
niuanse i ludzki charakter do swoich prac, a popełniane przez człowieka
błędy wynikają z zupełnie innych przyczyn niż te, które zdarzają się
Chatowi GPT.
Przykładem mogą być błędy składniowe: Chat GPT także je popełnia, ale zdania z błędami nadal brzmią mądrze i noszą znamiona naukowości. Dlatego często nie są wychwytywane przez studentów, a dla prowadzących są jednoznacznym wyznacznikiem, że praca została stworzona przez algorytm.
Chat GPT czasem wykazuje tendencję do prezentowania różnorodnych
wariantów tematycznych w jednym tekście. To może być trochę
niecodzienne, ponieważ autor ludzki zazwyczaj skupia się na jednej
ścieżce argumentacji lub analizy. Dla prowadzącego to może być sygnałem,
że w takiej pracy udział biorą jakby różne głosy, co wydaje się mało
prawdopodobne w przypadku pracy napisanej przez jedną osobę.
Warto pamiętać, że korzystanie z technologii, takiej jak Chat GPT, to fantastyczny sposób na uzyskanie inspiracji i lepszego zrozumienia tematu. Jednak prowadzący mają zwykle wieloletnie doświadczenie w pisaniu oraz ocenie prac i szybko wyczują, który tekst mógł powstać z udziałem sztucznej inteligencji. Dlatego warto używać nowoczesnych narzędzi z rozwagą i zawsze pamiętać, że praca, w którą realny człowiek włożył swój wysiłek i pasję, zawsze będzie się wyróżniać.