Serwis Naukowy UWSerwis Naukowy UWSerwis Naukowy UW
  • HUMANISTYCZNE
  • SPOŁECZNE
  • ŚCISŁE i PRZYRODNICZE
  • Wykorzystanie treści
Serwis Naukowy UWSerwis Naukowy UW
  • HUMANISTYCZNE
  • SPOŁECZNE
  • ŚCISŁE i PRZYRODNICZE
  • Wykorzystanie treści
Obserwuj nas
Copyright © 2024 Uniwersytet Warszawski
Strona główna » Artykuły » Czy da się wykryć pracę napisaną przez AI? Nauczyciele akademiccy vs. ChatGPT
filozofia

Czy da się wykryć pracę napisaną przez AI? Nauczyciele akademiccy vs. ChatGPT

Jedni traktują go jak rewolucyjne narzędzie, inni – jak zagrożenie dla edukacji. ChatGPT błyskawicznie stał się częścią studenckiej codzienności, także przy pisaniu prac zaliczeniowych. Co na to wykładowcy? Odpowiedzi szukali naukowcy z Polski i Słowenii.

Ostatnio zaktualizowany: 2025/09/21
22/09/2025
9 Min czytania
AdobeStock_1163713841_ZMNIEJSZONE
Czy pokusa pójścia na skróty jest silniejsza niż sens studiowania? Fot. mod /Adobe Stock
Udostępnij

Udostępniony w 2022 roku ChatGPT w błyskawicznym tempie zdobył globalną popularność. Już w sierpniu 2025 roku korzystało z niego 700 milionów osób tygodniowo – niemal tyle, ilu użytkowników ma WhatsApp w skali miesiąca!

Pisanie maili, wsparcie przy podejmowaniu trudnych decyzji, udzielanie odpowiedzi na frapujące pytania – ChatGPT traktowany jest obecnie jako wsparcie w niemalże każdej dziedzinie naszego życia. Potencjał generatywnej sztucznej inteligencji (gAI) został dostrzeżony również przez studentów.

W lutym 2025 roku brytyjski Higher Education Policy Institute (HEPI) we współpracy z firmą Kortext opublikował raport z badania obejmującego 1041 studentów studiów licencjackich. Wynika z niego, że aż 92% respondentów korzysta z narzędzi gAI (dla porównania w 2024 r. – 66% przy próbie 1250 osób). Co więcej, 88% studentów zadeklarowało użycie takich narzędzi do przygotowania ocenianych przez wykładowców prac zaliczeniowych (wzrost z 53% rok wcześniej). Jednocześnie odsetek osób, które w ogóle nie sięgają po gAI, spadł z 47% w 2024 roku do 12% w 2025 roku.

Przyczyn popularności narzędzi takich jak ChatGPT wśród studentów jest wiele. Oszczędność czasu, a także wysiłku, wyższa – zdaniem studentów – jakość prac przygotowanych przy użyciu gAI – to tylko kilka z nich.

Korzystanie w tym kontekście  ze sztucznej inteligencji rodzi jednak szereg wątpliwości i problemów, np. natury etycznej. Może prowadzić do nadużyć – na przykład wtedy, gdy student oddaje jako własną pracę przygotowaną w całości lub w dużej mierze przez gAI. Zjawisko to staje się coraz powszechniejsze i stanowi poważne wyzwanie dla nauczycieli akademickich.

Temu problemowi przyjrzeli się dr Krzysztof Skonieczny z Wydziału „Artes Liberales” Uniwersytetu Warszawskiego oraz dr Valerija Vendramin z Educational Research Institute w Lublanie, pytając polskich i słoweńskich wykładowców o ich stosunek do korzystania przez studentów z programu ChatGPT i o sposoby przeciwdziałania nieetycznym praktykom.

Co jest nieuczciwe?

Badanie przy użyciu ankiety internetowej przeprowadzono w styczniu i lutym 2024 r. Wzięło w nim udział 272 nauczycieli akademickich: 152 z polskich uczelni wyższych i 120 ze słoweńskich.

Na pytanie o to, czy wykorzystanie przez studentów ChatGPT do przygotowywania domowych prac pisemnych jest nieuczciwe, 49 spośród 272 osób odpowiedziało: „Tak, zawsze”, z kolei 19 zaznaczyło odpowiedź: „Nie, nigdy”. Zdecydowana większość osób uważa, że korzystanie z tego rodzaju narzędzi jest nieuczciwe „w niektórych przypadkach”.

Kolejne pytanie było okazją dla badanych do określenia, jakiego rodzaju praktyki wykorzystania ChatGPT są, ich zdaniem, nieuczciwe. Odpowiedziało 185 osób. Jak zauważają badacze, na podstawie uzyskanych odpowiedzi da się wyróżnić trzy rodzaje przypadków nieuczciwego korzystania z pomocy ChatGPT.

Chodzi o sytuacje, w których (1) ChatGPT wykonuje całą pracę za studenta bądź jej kluczową część (tak odpowiedziało 80 osób); (2) studenci twierdzą, że są autorami pracy, która została wykonana przez ChatGPT (np. wygenerowanego przez niego tekstu) bądź nie informują o tym, że w trakcie wykonywania pracy korzystali z tego narzędzia (50 osób); (3) studenci wykorzystują ChatGPT do wykonania określonych zadań (pisanie artykułów, esejów, tłumaczenie tekstu, napisanie egzaminu), a zwłaszcza określonego rodzaju prac: dyplomowych bądź zaliczeniowych (41 osób).

Czy da się wykryć oszustwo?

Drugim obszarem badania były strategie, które nauczyciele akademiccy uznają za skuteczne w przeciwdziałaniu nieuczciwym praktykom studentów. W pytaniu zamkniętym respondenci mieli ocenić skuteczność wskazanych metod w pięciostopniowej skali – od najmniej do najbardziej efektywnej – oraz zaznaczyć, czy sami z nich korzystają. Pytanie otwarte pozwalało natomiast dopisać własne propozycje rozwiązań, nieuwzględnione w ankiecie.

Zdaniem respondentów najbardziej skuteczną metodą jest rozmowa ze studentem na temat jego pracy. Taką aktywność zadeklarowało aż 175 osób (100 z polskich uczelni wyższych, 75 – ze słoweńskich). Kolejną skuteczną metodą jest kontrola pracy studentów na różnych etapach jej powstawania. To działanie zadeklarowało 98 respondentów. Jednak, co ciekawe, w tym przypadku dostrzec można dysproporcję między liczbą polskich i słoweńskich nauczycieli akademickich (odpowiednio 69 i 29). Naukowcy zaznaczają, że na podstawie tego badania nie można jednak wyjaśnić, skąd wynika ta różnica.

Za skuteczne uznawane jest także wyjaśnianie studentom, że określone sposoby używania ChatGPT są nieuczciwe – tę metodę zadeklarowało 133 nauczycieli (71 z Polski i 62 ze Słowenii). Inne metody to zmiana formy zaliczenia z pisemnej na ustną, co zadeklarowało 73 nauczycieli (38 z Polski i 35 ze Słowenii), oraz zlecanie prac do wykonania w klasie, a nie w domu – z tej praktyki korzysta 65 osób (39 z Polski i 26 ze Słowenii).

Sprawdzanie prac przy pomocy specjalnego oprogramowania wykrywającego użycie AI stosuje jedynie 26 respondentów (14 z Polski i 12 ze Słowenii). Badania pokazują jednak, że skuteczność takich programów jest ograniczona – potrafią błędnie oznaczać teksty pisane w całości przez człowieka jako wygenerowane przez AI.

Nieskutecznym w oczach respondentów sposobem przeciwdziałania nieuczciwym praktykom  okazało się natomiast karanie studentów za używanie ChatGPT – wskazało go tylko 20 badanych, po 10 z każdej grupy narodowej.

Jak uczciwie korzystać z AI?

Z badania przeprowadzonego przez dr. Skoniecznego i dr Vendramin wynika, że wśród nauczycieli akademickich panuje zgodność co do rodzaju praktyk, które należy postrzegać jako nieuczciwe korzystanie ze sztucznej inteligencji.

W oczach wykładowców narzędzia takie jak ChatGPT powinny pełnić jedynie funkcję pomocniczą, pomagając studentom np. zadbać o warstwę stylistyczną czy językową przygotowanych przez nich prac. Natomiast to studenci muszą być faktycznymi autorami tych tekstów, sami muszą je napisać, a przedstawione w nich idee, koncepcje czy argumenty powinny być efektem ich intelektualnego wysiłku.

– Wydaje mi się, że powinniśmy raczej stawiać sobie za cel działanie w sytuacji szczerości i możliwie świadomego wyboru. Jeśli postanawiamy wykorzystać ChatGPT czy inne narzędzie do napisania tekstu, to powinniśmy to robić tylko o tyle, o ile nie zaburza to celu, który ten tekst ma osiągnąć. Ted Chiang porównał ostatnio w tekście dla „New Yorkera” pisanie studenckich prac za pomocą ChataGPT do przyjeżdżania wózkiem widłowym na siłownię – oczywiście, podniesiemy w ten sposób bez wysiłku dowolną sztangę, ale masy mięśniowej nie zbudujemy – zwraca uwagę dr Skonieczny.

Podjęcie przez studenta wysiłku intelektualnego wydaje się w tym kontekście kluczowym problemem. Korzystanie z narzędzi takich jak GPT jest pójściem drogą na skróty, które sprawia, że studenci bardzo często czują się zwolnieni z myślenia. Wysiłek intelektualny stanowi zaś sedno procesu studiowania, który pozwala rozwijać kompetencje poznawcze i zdolność krytycznego myślenia. A – jak wynika z niektórych badań – coraz częstsze korzystanie z narzędzi AI ma negatywny wpływ na zdolności kognitywne.

Autorzy badania zwracają również uwagę na rolę, jaką w tej nowej akademickiej rzeczywistości powinien odgrywać nauczyciel akademicki.

– Sam wolę myśleć o generatywnej sztucznej inteligencji jako o wyzwaniu, które – być może paradoksalnie – zmusza nas do zwiększenia jakości i intensywności relacji pomiędzy nauczycielami akademickimi a osobami studiującymi. Najprościej o tym myśleć chyba właśnie w odniesieniu do tematu, który podejmujemy w artykule, tj. potencjalnego oszukiwania za pomocą aplikacji gAI – tłumaczy dr Skonieczny.

– Nie mamy obecnie, i zapewne nie będziemy mieli, skutecznego sposobu wykrywania użycia narzędzi sztucznej inteligencji do tworzenia tekstu – jeśli zatem chcemy, żeby osoby studiujące mimo to pisały teksty samodzielnie (albo w każdym razie nie łamiąc zasad, na które się umówiliśmy), to musimy umieć je do tego przekonać, a zatem przekonać je, że zadawane przez nas zadania są sensowne i ważne. Aby to zrobić, musimy mieć zaufanie osób studiujących do nas jako nauczycieli, do procedur, które stosujemy, i do samej instytucji studiów czy uniwersytetu. Takie zaufanie budować możemy tylko w mądrej relacji; i tylko w sytuacji, w której sami dobrze wiemy, dlaczego proponujemy takie a nie inne zadania ­– podkreśla naukowiec.

Być może właśnie w tym tkwi największe wyzwanie: zamiast ścigać studentów i szukać doskonałych detektorów AI, trzeba sprawić, by sens studiowania był silniejszy niż pokusa pójścia na skróty.

Dobrze wiedziałeś, jak to się skończy! O epistemicznym efekcie efektu ubocznego w języku polskim
Romans z iluzją. Czy relacje z chatbotem są moralne?
Piękno zaklęte w pędraku. Jak sprawić, żebyśmy chronili również to, co nam się nie podoba 
Praca jak każda inna? Czyli opowiadanie „brudnej roboty”
Czy elfy i wampiry mogą być ciemnoskóre? Czyli o problemie sądów kontrfaktycznych w filozofii (i w internecie)
TAGChatGPTLaboratorium Techno-HumanistykiWydział „Artes Liberales” UW
Poprzedni artykuł 2-60-Dongola-prof.-Obluski To miejsce jest jak szkatułka z klejnotami. Rozmawiamy z archeologiem, prof. Arturem Obłuskim
Następny artykuł 4 Sowy i skowronki. Co naprawdę decyduje o naszej produktywności
dr_Krzysztof_-Skonieczny
dr Krzysztof Skonieczny
filozof, adiunkt na Wydziale „Artes Liberales” Uniwersytetu Warszawskiego, członek Laboratorium Techno-Humanistyki. Autor książki Immanence and the Animal. A Conceptual Inquiry (Routledge 2020) oraz współredaktor m.in. Regimes of Capital in the Post-Digital Age (Routledge 2023, z Szymonem Wróblem) oraz Non-Western Approaches in the Environmental Humanities (V&R Unipress 2025, z Gabrielą Jarzębowską i Aleksandrą Ross). Kieruje polskimi zespołami w grantach EDUCAT(H)UM: Edukacja na pograniczu człowieczeństwa (NCN OPUS LAP 2023-26) oraz AIAI. AI: Autorstwo i interpretacja (NCN OPUS LAP 2025-27).

Serwis Naukowy UW

Centrum Współpracy i Dialogu UW

redakcja: ul. Dobra 56/66, 00-312 Warszawa​

tel.: +48 609635434 • redakcja@uw.edu.pl

Zapisz się na newsletter
Facebook Linkedin Instagram

O NAS

STRONA GŁÓWNA UW

logo serwisu blue
logotyp-IDUB-PL-poziom-inv

Deklaracja dostępności

Polityka prywatności cookies

Mapa strony

Copyright © 2025 Uniwersytet Warszawski

Copyright © 2025 Uniwersytet Warszawski
Accessibility Adjustments

Powered by OneTap

How long do you want to hide the accessibility toolbar?
Hide Toolbar Duration
Colors
Orientation
Version 2.5.1
Serwis Naukowy UW
Zarządzaj zgodą
Aby zapewnić jak najlepsze wrażenia, korzystamy z technologii, takich jak pliki cookie, do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak wyrażenia zgody lub wycofanie zgody może niekorzystnie wpłynąć na niektóre cechy i funkcje.
Funkcjonalne Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych. Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.
Zarządzaj opcjami Zarządzaj serwisami Zarządzaj {vendor_count} dostawcami Przeczytaj więcej o tych celach
Zobacz preferencje
{title} {title} {title}