Wykorzystanie Sztucznej Inteligencji (AI, Chat GPT itp.) do pisania pracy dyplomowej to zły pomysł. Obecne systemy antyplagiatowe wykrywają już taki plagiat. To także ryzyko różnych błędów w pracy. Cyber-promotor zapewnia fachową pomoc w pisaniu prac bez plagiatu i innych problemów. Zapewniamy umowę i gwarancję.
W ostatnim czasie media rozpisują się na temat niesamowitych możliwości sztucznej inteligencji (AI) oraz Chat GPT. Wiele osób zastanawia się zatem czy Chat GPT jest w stanie napisać za nie pracę dyplomową? W dzisiejszym artykule sprawdzimy, czy warto z takich narzędzi korzystać. Czytaj artykuł poniżej.
Spis treści
Czy Chat GPT napisze pracę zaliczeniową? Pisanie prac zaliczeniowych z Chat GPT
Czy Chat GPT może napisać za nas pracę dyplomową? Pisanie prac dyplomowych z Chat GPT
Może jednak warto? Czy Chat GPT napisze plan i bibliografię do pracy dyplomowej?
Pisanie prac z Chat GPT: Chat GPT a antyplagiat JSA
Pisanie prac z Chat GPT: jakie są największe zagrożenia?
Pisanie prac z Chat GPT – czy warto skorzystać z pomocy tej technologii? Inspiracja czy gotowiec?
Pisanie prac z Chat GPT – czego nie należy robić?
W najprostszym ujęciu Chat GPT to platforma sztucznej inteligencji zaprojektowana, aby umożliwić naturalne rozmowy z maszynami. Jest to swego rodzaju wirtualna osoba, której można zadawać pytania i otrzymywać konkretne odpowiedzi. Chat GPT potrafi też rozwiązywać różne zadania, takie jak rozwiązywanie problemów, tworzenie projektów graficznych, generowanie treści tekstowych, tłumaczenia tekstów, generowanie pomysłów czy tworzenie skryptów stron www.
Platforma została uruchomiona 30 listopada 2022 roku i bardzo szybko stała się niezwykle popularna, między innymi wśród uczniów, którzy chętnie wykorzystywali ją do odrabiania zadań domowych. Czy jednak AI poradzi sobie z zadaniami wymaganymi od studentów? Czy pisanie prac z Chat GPT ma w ogóle sens? Sprawdźmy.
Aby stwierdzić, czy Chat GPT poradzi sobie z pisaniem prac zaliczeniowych lub dyplomowych oraz z różnymi rodzajami zadań, jakie mają do wykonania studenci w procesie swojej edukacji, należy sprawdzić, jak działa ten rodzaj AI.
Celem twórców Open AI było stworzenie maszyny działającej podobnie jak ludzka inteligencja. Tym niemniej, Chat GPT wciąż ma spore ograniczenia. Algorytm co prawda rozumie zadawane mu pytania w wielu językach (w tym w języku polskim) i w większości przypadków potrafi przygotować odpowiedzi. Należy się jednak zastanowić nad wiarygodnością tych odpowiedzi. Pamiętajmy, że korzysta on z zasobów wiedzy zgromadzonych w Internecie, ale nie jest w stanie zweryfikować wiarygodności źródeł.
Bardzo często stara się też udzielić odpowiedzi na zadawane pytania za wszelką cenę. Oznacza to, że jeżeli zabraknie mu zasobów do analizy, udzieli odpowiedzi konfabulując. O tendencjach Chat GPT do konfabulacji pisze się zresztą niemal równie dużo jak o jego zaletach. Chatbot jest znany stworzenia fake newsów i udzielania fałszywych odpowiedzi niemających pokrycia w rzeczywistości. Co więcej, jego nowa wersja GPT-4 w tym zakresie robi duży krok w tył względem swojego poprzednika GPT-3.5 (chociaż pod względem językowym GPT-4 radzi sobie zdecydowanie lepiej).
Pod koniec maja 2023 r. świat obiegła historia pewnego prawnika z Nowego Jorku, który chcąc ułatwić sobie pracę, postanowił skorzystać Chat GPT, aby szybko znaleźć potrzebne mu w pracy orzecznictwo. Konkretnie potrzebował on informacji o wyrokach podobnych spraw, które zakończyły się wygraną strony pozywającej. Poprosił więc o pomoc sztuczną inteligencję. Chat GPT, nie mogąc znaleźć rzeczywistych wyników, po prostu je zmyślił. I to nie pojedyncze orzeczenia, ale całych kilkanaście wyroków, które nigdy nie zostały wydane.
Strona przeciwna sprawdziła orzecznictwo, na które powołał się pechowy prawnik. Okazało się ono w 100% fałszywe. Nie trzeba nadmieniać, że dla adwokata oznaczało to poważne kłopoty. Nie pomogło tłumaczenie, że korzystał z pomocy sztucznej inteligencji i że upewnił się, pytając maszynę, czy podane informacje są prawdziwe, ani też wyrażenie skruchy.
Sędzia prowadzący sprawę, stwierdził, że ma do czynienia z "bezprecedensową okolicznością". Tym niemniej prawnikowi grożą poważne konsekwencje, z możliwością utraty prawa do wykonywania zawodu włącznie.
Najbardziej niepokojące w całej historii jest to, że prawnik chciał upewnić się, czy otrzymał prawidłowe wyniki i czy faktycznie wyroki te zostały wydane. Chat GPT skłamał, że tak, wyroki zostały wydane i są one prawdziwe. Sytuacja ta pokazuje, że chatbot nie ma oporów w kwestii okłamywania użytkownika.
Jak ta historia ma się do pisania prac? Otóż studenci prawa również potrzebują przeglądu orzecznictwa. Jak udowadnia ten znany przypadek, nie należy polegać na otrzymanych wynikach. Pisanie prac z Chat GPT nie daje gwarancji, że w pracy nie pojawią się fałszywe informacje.
Teoretycznie, jeżeli zadamy Chat GPT zadanie napisania eseju na jakiś ogólny temat, maszyna sobie z tym poradzi. Na poziomie prac szkoły podstawowej lub średniej poradzi sobie nawet całkiem nieźle. Jeśli natomiast chodzi o prace zaliczeniowe czy eseje na zaliczenie do uzyskanych wyników należy podejść bardzo ostrożnie. Wynika to z kilku względów.
Po pierwsze eseje na zaliczenie nie są zwykłymi esejami, jakie piszemy w szkole podstawowej czy średniej, lecz esejami naukowymi. Oznacza to, że bezwzględnie wymagane są w nich przypisy i bibliografia. I tu niestety pojawia się problem, a nawet kilka. Przede wszystkim, Chat GPT nie potrafi zrobić prawidłowych przypisów (przynajmniej jego dotychczasowa wersja GPT-4). Każąc mu zamieścić przypisy w pracy otrzymamy co najwyżej jakiś spis literatury (niekoniecznie istniejącej) na końcu, a nie rzetelne przypisy. Dodatkowo, w żadnym wypadku nie mamy pewności, że podana literatura faktycznie istnieje (podobnie jak wymyślone przez chatbota orzecznictwo w opisanym powyżej przykładzie). Przetestowano to już wielokrotnie i podawana w takich wypadkach literatura bardzo często jest wytworem fantazji chatbota. Każdą pozycję należałoby zatem dokładnie sprawdzić.
Kolejna kwestia to konieczność podawania numerów stron z wykorzystanych publikacji. Jeżeli nawet po wielu nieudanych próbach uda się zmusić Chat GPT do podania numerów stron w spisie literatury, również nie mamy pewności, że są one prawdziwe. Na platformach Youtube i Tik Tok krąży wiele filmików na temat tego, w jaki sposób Chat GPT generuje fałszywe wyniki, tylko po to, żeby za wszelką cenę „zadowolić” użytkownika. Tym samym zdolności do konfabulacji Chat GPT urastają już do miana legendy.
Pisanie prac z Chat GPT to zatem spore ryzyko. Nie trzeba wspominać, że dla doświadczonego wykładowcy, rozpoznanie takich fałszywych przypisów nie stanowi problemu. Osoba, która zadaje na zaliczenie napisanie eseju z tematyki dotyczącej prowadzonego wykładu, doskonale orientuje się przecież w dostępnej literaturze przedmiotu (to na jej przykładzie przygotowuje bowiem wykład), więc fałszywe przypisy i bibliografia od razu wzbudzą podejrzenia.
Kolejna kwestia, ta sprawa plagiatu. Pisanie prac z Chat GPT może nim zaowocować. Kwestię tę omówimy zresztą nieco szerzej w dalszej części artykułu, tutaj wystarczy nadmienić jedynie, że Chat GPT to nie człowiek, ale maszyna działająca na bazie algorytmów. Jeżeli kilka osób zada jej podobne pytania lub poprosi o napisanie eseju na taki sam temat, użytkownicy ci mogą otrzymać identyczne wyniki. W efekcie, kilku studentów może oddać identyczne prace swojemu wykładowcy. Co to oznacza? Sami dobrze wiecie. Wstyd, upokorzenie i ocenę niedostateczną oraz uprzedzenie wykładowcy do takiego studenta, który następną jego pracę sprawdzi niewątpliwie dokładniej i będzie o wiele bardziej krytyczny.
W przypadku pisania prac dyplomowych sytuacja wygląda podobnie, jak w przypadku prac zaliczeniowych, przy czym ograniczeń jest znacznie więcej. Przede wszystkim Chat GPT znacznie gorzej radzi sobie z dużymi tekstami. Pamiętajmy, że jego algorytm bazuje na ogólnodostępnej wiedzy i może wykonać pewną kompilację źródeł, jednak nie posiada on własnej wiedzy i inteligencji ludzkiej, dzięki którym mógłby dokonać prawidłowej selekcji materiału i napisać dobrą pracę.
Kolejne problemy, z jakimi wiąże się pisanie prac z Chat GPT, to kwestia przypisów i wiarygodności źródeł. O ile w przypadku krótkiego tekstu, liczącego zaledwie kilka stron bylibyśmy jeszcze w stanie jakoś sprawdzić, czy podane źródła są prawdziwe i, o ile publikacje są dostępne w Internecie, zweryfikować podane numery stron (co w praktyce pewnie zajmie więcej czasu niż napisanie tych kilku stron tekstu), to w przypadku pracy liczący kilkadziesiąt stron i co najmniej kilkadziesiąt różnych źródeł bibliograficznych jest to syzyfowa praca.
Ze względu na tendencję do podawania fałszywych źródeł przez Chat GPT, musielibyśmy bowiem sprawdzić wszystko dokładniej niż przy samodzielnym pisaniu pracy, kiedy mamy pewność co do tego, z czego korzystamy.
Największe ryzyko stanowi jednak możliwość popełnienia autoplagiatu lub wręcz plagiatu przez Chat GPT. Tekst tworzy bowiem urządzenie na bazie własnych algorytmów, co oznacza, że w przypadku zadanych mu przez kilka osób zbliżonych kryteriów, najprawdopodobniej będzie powtarzać dokładnie takie same akapity. Im bardziej popularny temat, tym większe ryzyko plagiatu. Natomiast w przypadku zagadnień, o których pisze się mało, istnieje ryzyko, że Chat GPT stworzy własne teorie, które będą sprzeczne z ogólnymi nurtami przyjętymi w nauce. Promotor obeznany w takiej tematyce od razu wyłapie te błędy i nieścisłości, a tłumaczenie się, że to nie my popełniliśmy błędy, a zrobiła to sztuczna inteligencja, jest jeszcze gorsze. To przecież przyznanie się do niesamodzielnego pisania pracy, co oznacza ryzyko poniesienia odpowiedzialności karnej z tytułu art. 272 kodeksu karnego. Sami odpowiedzcie sobie na pytanie, czy warto…
Ostatnio w Internecie pojawiły się testy Chat GPT pod kątem tworzenia planów i bibliografii do prac domowych. Nie licząc mało wiarygodnych wpisów i filmów promujących Chat GPT, które celowo pomijają jego słabości, ogólne opinie są jednoznaczne. W przypadku tematów typowych możemy otrzymać plan pracy będący kompilacją planów prac na podobne tematy dostępnych w Internecie. Nie będzie to zatem w żadnym razie plan oryginalny, jaki stworzyłby człowiek, szczególnie osoba dobrze obeznana w tematyce pracy. W przypadku tematów z rzadkich dziedzin, takich do których w sieci można znaleźć znikomą liczbę źródeł, Chat GPT nie radzi sobie kompletnie. Tworzy on plany niespójne, chaotyczne, składające się z luźno związanych ze sobą fraz dotyczących pojedynczych składowych tematu, nieuporządkowane logicznie, a nawet, jeśli zabraknie mu odpowiednich danych, sam próbuje rozwiązać problem, tworząc coś, czego nie znajdziemy w żadnej naukowej publikacji, a co może okazać się bzdurą.
Jeśli chodzi o bibliografię do pracy dyplomowej, w tym aspekcie również występuje duże ryzyko ze względu na możliwość generowania nieistniejących źródeł. Pokazuje to wiele testów Chat GPT. Taka proponowana przez sztuczną inteligencję bibliografia do pracy dyplomowej ma zatem znikomą wartość merytoryczną i należałoby ją poddać dokładnej weryfikacji pod kątem prawdziwości podanych źródeł.
Wróćmy jeszcze do ryzyka plagiatu w przypadku korzystania z Chat GPT. Pamiętać należy, że chociaż sztuczna inteligencja nie jest osobą, w związku z czym nie przysługują jej roszczenia wynikające z ustawy o prawie autorskim i prawach pokrewnych (ale przysługują one jej twórcom i właścicielom tej technologii), to jednak oddanie na uczelni tekstu napisanego przez chatbota stanowi plagiat i podlega odpowiedzialności karnej z tytułu artykułu 272 i 273 kodeksu karnego. A ryzyko wykrycia takiego plagiatu jest bardzo duże.
Warto poświęcić też nieco więcej uwagi temu, jak pisanie prac z Chat GPT ma się do antyplagiatu JSA (Jednolity System Antyplagiatowy). Jak wiadomo, system ten jest bardzo restrykcyjny, a ponadto zakres jego funkcjonalności jest na tyle ubogi, że nie rozróżnia on kwestii takich jak parafraza, cytat i plagiat. Tak naprawdę na chwilę obecną nikt nie jest w stanie stwierdzić, w jaki sposób JSA potraktowałby unikalny tekst wygenerowany przez Chat GPT (założywszy, że nikt inny nie zadał AI podobnego pytania i nie zamieścił odpowiedzi w swojej pracy). Tym niemniej, ze względu na strukturę algorytmów chatbota istnieje bardzo wysokie prawdopodobieństwo, że nawet tekst na unikalny temat stworzony po raz pierwszy przez Chat GPT zostałby zakwalifikowany jako plagiat. Wynika to z faktu, że chatbot swoją całą wiedzę czerpie z dostępnych zasobów internetowych, a to w jaki sposób kompiluje poszczególne źródła, nie jest do końca znane (stanowi to tajemnicę handlową twórców systemu).
Z funkcjonowania algorytmów Chat GPT wynika także, że im bardziej popularny temat lub zagadnienia omawiane w pracy (a w pracach dyplomowych nie odkrywamy przecież niczego nowego, lecz piszemy na bazie źródeł naukowych), tym większe jest ryzyko popełnienia autoplagiatu przez chatbota. Jeśli przykładowo mamy temat o motywacji pracowników w przedsiębiorstwie X, musimy w nim omówić między innymi definicje i teorie motywacji. Ze względu na to, że temat jest niezwykle popularny, wiele osób może poprosić Chat GPT o stworzenie przeglądu tych zagadnień. Nie ma racjonalnego powodu, aby sądzić, że za każdym razem chatbot będzie generował tekst innymi słowami, o innej treści itp. Nawet w przypadku mniej popularnych tematów pewne zagadnienia i tak będą się pokrywały z innymi pracami, zawsze zatem istnieje ryzyko, że korzystając z Chat GPT otrzymamy splagiatowany tekst.
Kolejnym argumentem za tym, że praca napisana przez Chat GPT najprawdopodobniej zostanie uznana za plagiat przez JSA, jest fakt, iż obecnie istnieją już technologie umożliwiające rozróżnienie tekstu pisanego przez człowieka i maszynę. Są one wykorzystywane choćby wyszukiwarkach internetowych, dla których ważnym kryterium wyświetlania stron internetowych w czołowych wynikach jest to, aby treści były napisane przez człowieka, a nie chatboty. Zastosowanie tej już dość powszechnie dostępnej technologii w systemach antyplagiatowych to jedynie kwestia czasu. Już dziś systemy antyplagiatowe są w stanie na przykład odróżniać plagiat popełniony przez przetłumaczenie tekstu z języka obcego. Dodanie nowej funkcjonalności w postaci możliwości stwierdzenia, czy autorem tekstu jest człowiek czy sztuczna inteligencja niewątpliwie pojawi się w najbliższej przyszłości.
Może się zatem okazać, że nawet jeśli praca dyplomowa napisana z wykorzystaniem Chat GPT, jakimś cudem przeszłaby przez weryfikację JSA (na przykład ze względu na unikalność tematyki), to za kilka lat absolwent zostanie pozbawiony dyplomu, gdyż wgrana do ORPD praca nagle wyświetli alert plagiatowy. W takim wypadku studentowi, który wybrał drogę na skróty z Chat GPT i przez kilka lat cieszył się uzyskanym dyplomem, grozi odpowiedzialność karna z art. 273 kodeksu karnego (kara więzienia).
Jak wynika z wcześniejszych rozważań, zlecenie pisania prac Chat GPT, czy to zaliczeniowych czy dyplomowych, wiąże się z poważnym ryzykiem. Wśród najważniejszych zagrożeń związanych skorzystaniem ze sztucznej inteligencji przy pisaniu prac można wymienić:
Błędy językowe, wynikające z niedostatecznego dopracowania obecnej wersji do polskich warunków językowych
Błędy rzeczowe, wynikające z ograniczonego dostępu do wiarygodnych naukowych źródeł, szczególnie przy tematach mniej popularnych
Ryzyko fałszywych przypisów i źródeł bibliograficznych, wynikające z ogólnie znanej tendencji do konfabulacji Chat GPT
Ryzyko plagiatu nie tylko w przypadku tematów popularnych, ale podobnych zagadnień – tekst tworzy bowiem algorytm komputerowy, który działa na podstawie ustalonej ścieżki i schematu, a nie człowiek, który dwa razy nie powtórzy jakiejś myśli dokładnie tymi samymi słowami,
W przypadku dłuższych tekstów (powyżej kilku stron) ryzyko otrzymania wypowiedzi chaotycznej, niespójnej logicznie, niemającej odpowiedniego umocowania w literaturze przedmiotu.
Jak zatem wynika z powyższych przykładów zagrożeń związanych z wykorzystaniem Chat GPT przy pisaniu prac, osoby, które chciałyby, aby sztuczna inteligencja napisała za nich pracę, narażają się na spore ryzyko. To nie tylko ryzyko otrzymania oceny niedostatecznej, ale też poniesienia odpowiedzialności karnej w przypadku, jeśli okaże się, że stworzony przez sztuczną inteligencję tekst lub jego fragmenty jest jej autoplagiatem, generowanym dla wielu studentów na podobnie zadane pytania. Takiej możliwości nigdy nie możemy wykluczyć.
Czy zatem warto korzystać z Chat GPT podczas pisania prac? To zależy. Jeżeli ktoś jest doskonale obeznany w temacie, na których chce napisać pracę, ma ogromną wiedzę w tym zakresie, ale brakuje mu inspiracji lub drobnych podpowiedzi, Chat GPT może być dobrym rozwiązaniem. Warunkiem koniecznym jest jednak właśnie ta znaczna wiedza i znajomość opisywanej tematyki. W takim wypadku jesteśmy bowiem w stanie zweryfikować, czy wygenerowany przez Chat GPT tekst jest prawidłowy pod względem merytorycznym, czy nie ma w nim błędów rzeczowych lub innych. Ale powiedzmy wprost: czy przeciętny student, który chce jedynie zaliczyć jeden z kilkunastu przedmiotów w sesji, jest rzeczywiście w stanie to zrobić? Czy jest w stanie sprawdzić, czy aby na pewno maszyna nie „wpuszcza go w maliny”? Raczej nie.
Narzędzie to może w pewnym stopniu być przydatne dla wykładowców. Doktor lub profesor, przygotowujący wykład lub jakiś artykuł naukowy na swoje potrzeby mogą z tego rozwiązania korzystać, oczywiście zachowując dużą dozę ostrożności kwestii wiarygodności podanych źródeł. Jako osoby obeznane w tematyce, będą bowiem w stanie odróżnić prawdę od fałszu. Studenci mogą mieć z tym dużo więcej problemów.
Nigdy i w żadnych okolicznościach nie należy kopiować tego, co stworzy Chat GPT do swojej pracy. Bez względu na fakt, że taki tekst jest wytworem sztucznej inteligencji a nie człowieka, nie zmienia to faktu, że w takiej sytuacji dochodzi do przypisania sobie cudzego autorstwa, a zatem plagiatu. Co więcej, taki plagiat jest niezwykle łatwo wykryć, co wiąże się z ryzykiem odpowiedzialności karnej z tytułu jego popełnienia. Maszyna co prawda nie pozwie nikogo za naruszenie swoich praw autorskich (odpowiedzialność cywilnoprawna), chociaż mogą to zrobić twórcy technologii, to jednak ze względu na poświadczenie nieprawdy w kwestii autorstwa, zastosowanie mają art. 272 i 273 kodeksu karnego, których konsekwencje są znacznie poważniejsze niż pozew prawnoautorski. W takiej sytuacji sprawcy grozi aż do 3 lat więzienia.
Reasumując, jeśli nie chcemy skończyć jak pechowy prawnik z Nowego Jorku, który być może już nigdy więcej nie będzie mógł wykonywać swojego zawodu, korzystajmy Chat GPT bardzo ostrożnie. O ile bezpiecznie możemy w nim stworzyć pismo urzędowe lub list miłosny to w przypadku pisania prac zaliczeniowych i dyplomowych lepiej zbytnio nie ufać jego umiejętnościom. Nawet jeśli chatbotowi uda stworzyć coś, co jest w miarę poprawne merytorycznie, narażamy się na ryzyko odpowiedzialności karnej z tytułu plagiatu. Naprawdę nie warto.
-----------------------------------
Jeżeli masz problem z napisaniem pracy zaliczeniowej lub dyplomowej, lepiej zaufać sprawdzonemu serwisowi, w którym teksty tworzą ludzie, a nie sztuczna inteligencja. Dzięki naszej pomocy w pisaniu prac, nie narażasz się na ryzyko – sprawdź bez zobowiązań
-----------------------------------
Źródła:
USA: Chat GPT "oszukał" prawnika. Mężczyzna może zostać ukarany, https://www.polsatnews.pl/wiadomosc/2023-05-30/usa-chat-gpt-oszukal-prawnika-mezczyzna-moze-zostac-ukarany/
Gajewski M., Dlaczego czatboty kłamią? Ekspert mówi, jak działa ChatGPT i dlaczego świat właśnie zmienił się nie do poznania, https://spidersweb.pl/2023/03/jak-dziala-chatgpt-czatboty.html
Broniowski W., Chat GPT: Genialne narzędzie czy wielki konfabulator?, https://www.youtube.com/watch?V=Gn3vuzSSxLE
Tak kłamie GPT 4. Sztuczna inteligencja przyłapana na tworzeniu fake newsów, https://spidersweb.pl/2023/03/chat-gpt-4-klamstwa-problem.html
Może cię zainteresować
Liczba zadowolonych klientów: