Udostępniony w 2022 roku ChatGPT w błyskawicznym tempie zdobył globalną popularność. Już w sierpniu 2025 roku korzystało z niego 700 milionów osób tygodniowo – niemal tyle, ilu użytkowników ma WhatsApp w skali miesiąca!
Pisanie maili, wsparcie przy podejmowaniu trudnych decyzji, udzielanie odpowiedzi na frapujące pytania – ChatGPT traktowany jest obecnie jako wsparcie w niemalże każdej dziedzinie naszego życia. Potencjał generatywnej sztucznej inteligencji (gAI) został dostrzeżony również przez studentów.
W lutym 2025 roku brytyjski Higher Education Policy Institute (HEPI) we współpracy z firmą Kortext opublikował raport z badania obejmującego 1041 studentów studiów licencjackich. Wynika z niego, że aż 92% respondentów korzysta z narzędzi gAI (dla porównania w 2024 r. – 66% przy próbie 1250 osób). Co więcej, 88% studentów zadeklarowało użycie takich narzędzi do przygotowania ocenianych przez wykładowców prac zaliczeniowych (wzrost z 53% rok wcześniej). Jednocześnie odsetek osób, które w ogóle nie sięgają po gAI, spadł z 47% w 2024 roku do 12% w 2025 roku.
Przyczyn popularności narzędzi takich jak ChatGPT wśród studentów jest wiele. Oszczędność czasu, a także wysiłku, wyższa – zdaniem studentów – jakość prac przygotowanych przy użyciu gAI – to tylko kilka z nich.
Korzystanie w tym kontekście ze sztucznej inteligencji rodzi jednak szereg wątpliwości i problemów, np. natury etycznej. Może prowadzić do nadużyć – na przykład wtedy, gdy student oddaje jako własną pracę przygotowaną w całości lub w dużej mierze przez gAI. Zjawisko to staje się coraz powszechniejsze i stanowi poważne wyzwanie dla nauczycieli akademickich.
Temu problemowi przyjrzeli się dr Krzysztof Skonieczny z Wydziału „Artes Liberales” Uniwersytetu Warszawskiego oraz dr Valerija Vendramin z Educational Research Institute w Lublanie, pytając polskich i słoweńskich wykładowców o ich stosunek do korzystania przez studentów z programu ChatGPT i o sposoby przeciwdziałania nieetycznym praktykom.
Co jest nieuczciwe?
Badanie przy użyciu ankiety internetowej przeprowadzono w styczniu i lutym 2024 r. Wzięło w nim udział 272 nauczycieli akademickich: 152 z polskich uczelni wyższych i 120 ze słoweńskich.
Na pytanie o to, czy wykorzystanie przez studentów ChatGPT do przygotowywania domowych prac pisemnych jest nieuczciwe, 49 spośród 272 osób odpowiedziało: „Tak, zawsze”, z kolei 19 zaznaczyło odpowiedź: „Nie, nigdy”. Zdecydowana większość osób uważa, że korzystanie z tego rodzaju narzędzi jest nieuczciwe „w niektórych przypadkach”.
Kolejne pytanie było okazją dla badanych do określenia, jakiego rodzaju praktyki wykorzystania ChatGPT są, ich zdaniem, nieuczciwe. Odpowiedziało 185 osób. Jak zauważają badacze, na podstawie uzyskanych odpowiedzi da się wyróżnić trzy rodzaje przypadków nieuczciwego korzystania z pomocy ChatGPT.
Chodzi o sytuacje, w których (1) ChatGPT wykonuje całą pracę za studenta bądź jej kluczową część (tak odpowiedziało 80 osób); (2) studenci twierdzą, że są autorami pracy, która została wykonana przez ChatGPT (np. wygenerowanego przez niego tekstu) bądź nie informują o tym, że w trakcie wykonywania pracy korzystali z tego narzędzia (50 osób); (3) studenci wykorzystują ChatGPT do wykonania określonych zadań (pisanie artykułów, esejów, tłumaczenie tekstu, napisanie egzaminu), a zwłaszcza określonego rodzaju prac: dyplomowych bądź zaliczeniowych (41 osób).
Czy da się wykryć oszustwo?
Drugim obszarem badania były strategie, które nauczyciele akademiccy uznają za skuteczne w przeciwdziałaniu nieuczciwym praktykom studentów. W pytaniu zamkniętym respondenci mieli ocenić skuteczność wskazanych metod w pięciostopniowej skali – od najmniej do najbardziej efektywnej – oraz zaznaczyć, czy sami z nich korzystają. Pytanie otwarte pozwalało natomiast dopisać własne propozycje rozwiązań, nieuwzględnione w ankiecie.
Zdaniem respondentów najbardziej skuteczną metodą jest rozmowa ze studentem na temat jego pracy. Taką aktywność zadeklarowało aż 175 osób (100 z polskich uczelni wyższych, 75 – ze słoweńskich). Kolejną skuteczną metodą jest kontrola pracy studentów na różnych etapach jej powstawania. To działanie zadeklarowało 98 respondentów. Jednak, co ciekawe, w tym przypadku dostrzec można dysproporcję między liczbą polskich i słoweńskich nauczycieli akademickich (odpowiednio 69 i 29). Naukowcy zaznaczają, że na podstawie tego badania nie można jednak wyjaśnić, skąd wynika ta różnica.
Za skuteczne uznawane jest także wyjaśnianie studentom, że określone sposoby używania ChatGPT są nieuczciwe – tę metodę zadeklarowało 133 nauczycieli (71 z Polski i 62 ze Słowenii). Inne metody to zmiana formy zaliczenia z pisemnej na ustną, co zadeklarowało 73 nauczycieli (38 z Polski i 35 ze Słowenii), oraz zlecanie prac do wykonania w klasie, a nie w domu – z tej praktyki korzysta 65 osób (39 z Polski i 26 ze Słowenii).
Sprawdzanie prac przy pomocy specjalnego oprogramowania wykrywającego użycie AI stosuje jedynie 26 respondentów (14 z Polski i 12 ze Słowenii). Badania pokazują jednak, że skuteczność takich programów jest ograniczona – potrafią błędnie oznaczać teksty pisane w całości przez człowieka jako wygenerowane przez AI.
Nieskutecznym w oczach respondentów sposobem przeciwdziałania nieuczciwym praktykom okazało się natomiast karanie studentów za używanie ChatGPT – wskazało go tylko 20 badanych, po 10 z każdej grupy narodowej.
Jak uczciwie korzystać z AI?
Z badania przeprowadzonego przez dr. Skoniecznego i dr Vendramin wynika, że wśród nauczycieli akademickich panuje zgodność co do rodzaju praktyk, które należy postrzegać jako nieuczciwe korzystanie ze sztucznej inteligencji.
W oczach wykładowców narzędzia takie jak ChatGPT powinny pełnić jedynie funkcję pomocniczą, pomagając studentom np. zadbać o warstwę stylistyczną czy językową przygotowanych przez nich prac. Natomiast to studenci muszą być faktycznymi autorami tych tekstów, sami muszą je napisać, a przedstawione w nich idee, koncepcje czy argumenty powinny być efektem ich intelektualnego wysiłku.
– Wydaje mi się, że powinniśmy raczej stawiać sobie za cel działanie w sytuacji szczerości i możliwie świadomego wyboru. Jeśli postanawiamy wykorzystać ChatGPT czy inne narzędzie do napisania tekstu, to powinniśmy to robić tylko o tyle, o ile nie zaburza to celu, który ten tekst ma osiągnąć. Ted Chiang porównał ostatnio w tekście dla „New Yorkera” pisanie studenckich prac za pomocą ChataGPT do przyjeżdżania wózkiem widłowym na siłownię – oczywiście, podniesiemy w ten sposób bez wysiłku dowolną sztangę, ale masy mięśniowej nie zbudujemy – zwraca uwagę dr Skonieczny.
Podjęcie przez studenta wysiłku intelektualnego wydaje się w tym kontekście kluczowym problemem. Korzystanie z narzędzi takich jak GPT jest pójściem drogą na skróty, które sprawia, że studenci bardzo często czują się zwolnieni z myślenia. Wysiłek intelektualny stanowi zaś sedno procesu studiowania, który pozwala rozwijać kompetencje poznawcze i zdolność krytycznego myślenia. A – jak wynika z niektórych badań – coraz częstsze korzystanie z narzędzi AI ma negatywny wpływ na zdolności kognitywne.
Autorzy badania zwracają również uwagę na rolę, jaką w tej nowej akademickiej rzeczywistości powinien odgrywać nauczyciel akademicki.
– Sam wolę myśleć o generatywnej sztucznej inteligencji jako o wyzwaniu, które – być może paradoksalnie – zmusza nas do zwiększenia jakości i intensywności relacji pomiędzy nauczycielami akademickimi a osobami studiującymi. Najprościej o tym myśleć chyba właśnie w odniesieniu do tematu, który podejmujemy w artykule, tj. potencjalnego oszukiwania za pomocą aplikacji gAI – tłumaczy dr Skonieczny.
– Nie mamy obecnie, i zapewne nie będziemy mieli, skutecznego sposobu wykrywania użycia narzędzi sztucznej inteligencji do tworzenia tekstu – jeśli zatem chcemy, żeby osoby studiujące mimo to pisały teksty samodzielnie (albo w każdym razie nie łamiąc zasad, na które się umówiliśmy), to musimy umieć je do tego przekonać, a zatem przekonać je, że zadawane przez nas zadania są sensowne i ważne. Aby to zrobić, musimy mieć zaufanie osób studiujących do nas jako nauczycieli, do procedur, które stosujemy, i do samej instytucji studiów czy uniwersytetu. Takie zaufanie budować możemy tylko w mądrej relacji; i tylko w sytuacji, w której sami dobrze wiemy, dlaczego proponujemy takie a nie inne zadania – podkreśla naukowiec.
Być może właśnie w tym tkwi największe wyzwanie: zamiast ścigać studentów i szukać doskonałych detektorów AI, trzeba sprawić, by sens studiowania był silniejszy niż pokusa pójścia na skróty.