Dlaczego uczelnie nie mogą już ignorować generatywnej sztucznej inteligencji
AI jako nowa „wyszukiwarka” wiedzy
Generatywna sztuczna inteligencja stała się dla wielu studentów tym, czym kiedyś była pierwsza wyszukiwarka internetowa – „oknem na świat”, tyle że reagującym w języku naturalnym, a nie listą linków. Różnica polega na tym, że AI nie tylko wyszukuje informacje, ale je tworzy i przetwarza: streszcza teksty, tłumaczy, generuje przykłady, pisze kod, proponuje struktury prac. To nie jest kolejna encyklopedia, lecz partner do rozmowy, który nigdy nie śpi.
Student nie musi już przeglądać dziesiątek stron. Może po prostu zadać pytanie: „Wyjaśnij mi teorię gier jak dla pierwszego roku ekonomii” i w kilka sekund dostaje wstępny wykład. Dla części osób to pierwszy kontakt z tematem jeszcze przed zajęciami. Dla innych – sposób na „przepisanie” trudnego akademickiego języka na coś bardziej strawnego. Z punktu widzenia dydaktyki to ogromna zmiana: punkt startowy studenta przestaje być zerowy.
Jeśli uczelnia udaje, że tego zjawiska nie ma, to tak, jakby w czasach Google’a oczekiwać, że studenci będą korzystać wyłącznie z papierowej bibliografii. Konsekwencją jest rosnąca rozbieżność między oficjalnymi zasadami a codzienną praktyką studentów i wykładowców. Polityka AI na uczelni nie jest fanaberią – to próba dogonienia rzeczywistości.
Jak studenci już dziś korzystają z generatywnej AI
Sposoby korzystania z AI przez studentów można ułożyć na osi od bardzo konstruktywnych po jednoznacznie problematyczne. Po jednej stronie mamy osoby traktujące narzędzia typu ChatGPT jako osobistego tutora: proszą o wyjaśnienia, przykłady zastosowań, pytają o różne perspektywy na ten sam problem. Po drugiej – tych, którzy kopiują wygenerowany tekst i oddają go jako własny esej, projekt czy fragment pracy inżynierskiej.
Między tymi skrajnościami dzieje się najwięcej. Studenci wykorzystują AI do:
- generowania konspektów prac i prezentacji;
- sprawdzania poprawności językowej tekstów w języku obcym;
- pisania prostych fragmentów kodu i wyszukiwania błędów w programach;
- tworzenia krótkich streszczeń artykułów naukowych;
- symulowania rozmów kwalifikacyjnych lub dyskusji na seminariach.
Wielu studentów przyznaje wprost, że AI stała się dla nich „lepszą wyszukiwarką”: zamiast szukać informacji w pięciu miejscach, dostają syntezę. Jeśli uczelnia tego nie adresuje, powstaje szara strefa użycia – niby wszyscy korzystają, ale nikt o tym nie mówi na głos. To prosta droga do nieporozumień przy ocenie prac i zarzutów o plagiat lub „oszustwo z pomocą AI”.
Coraz częściej studenci pytają o regulamin korzystania z ChatGPT czy innych narzędzi: „Czy mogę użyć AI do sprawdzenia gramatyki?”, „Czy wolno mi poprosić AI o przykłady pytań na egzamin ustny?”. Brak jasnych zasad powoduje, że każdy wykładowca reaguje inaczej – od pełnej akceptacji po zero-jedynkowe zakazy. Z perspektywy całej uczelni oznacza to chaos i nierówne traktowanie.
Czym generatywna AI różni się od klasycznych narzędzi cyfrowych
Wielu wykładowców porównuje AI do kalkulatora lub edytora tekstu. To porównanie częściowo trafne, ale mocno uproszczone. Kalkulator liczy według jasnych zasad, a edytor tekstu jedynie formatuje i porządkuje wprowadzony materiał. Generatywna AI natomiast tworzy treść, której wcześniej nie było, w oparciu o wzorce wyuczone na ogromnych zbiorach danych.
Dwa kluczowe wyróżniki generatywnej AI to:
- język naturalny – można „rozmawiać” tak, jak z człowiekiem, zadawać pytania uzupełniające, prosić o zmianę stylu czy poziomu trudności;
- pozorna kreatywność – narzędzie generuje eseje, opowiadania, kod, prezentacje, czasem sprawiające wrażenie bardzo oryginalnych, choć w rzeczywistości oparte na statystycznych wzorcach.
Ta różnica ma ogromne znaczenie dla dydaktyki. Jeśli zadanie polega wyłącznie na „napisaniu poprawnego tekstu o…”, AI może je wykonać na zadowalającym poziomie. Jeśli jednak oczekujemy od studenta odniesienia do własnej praktyki, krytycznego porównania teorii, pracy na lokalnych danych – rola AI sprowadza się raczej do wsparcia niż zastępstwa.
Dobre narzędzia generatywne działają jak bardzo zaawansowany asystent, który pod ręką ma tysiące przykładów i potrafi je syntetyzować. Źle używane – jak „ghostwriter”, który nie pyta, nie tłumaczy, tylko „załatwia” zadanie. To rozróżnienie staje się jednym z fundamentów generatywnej AI w dydaktyce.
Konsekwencje ignorowania AI w regulaminach i praktyce
Ignorowanie generatywnej sztucznej inteligencji prowadzi do kilku przewidywalnych skutków. Po pierwsze, powstają fikcyjne regulaminy: na papierze AI jest zakazana, w praktyce korzysta z niej większość studentów. Po drugie, rośnie stopień hipokryzji – wykładowcy niektórzy sami wspierają się AI przy tworzeniu sylabusów czy treści zadań, ale nie dopuszczają takiej możliwości po stronie studentów.
Po trzecie, brak jasnych zasad sprzyja nadużyciom. Skoro nic nie jest powiedziane wprost, część studentów uznaje, że „dopóki mnie nie złapią, wszystko wolno”. Plagiat i halucynacje AI pozostają niewidoczne, dopóki ktoś nie zauważy rażących błędów merytorycznych lub charakterystycznej „gładkości” tekstu. To nie jest sytuacja, w której wygrywają najlepsi – często wygrywają ci, którzy mają najmniej skrupułów.
Podstawowe ryzyka i szanse – bilans, który trzeba zrobić uczciwie
Ryzyka dydaktyczne, prawne i etyczne
Włączenie AI do dydaktyki przypomina otwarcie laboratorium chemicznego: same substancje nie są ani dobre, ani złe, ale nieodpowiedzialne użycie może zaszkodzić. Z perspektywy uczelni najczęściej pojawiają się trzy grupy ryzyk: dydaktyczne, prawne i etyczne.
Na poziomie dydaktycznym problemem jest przede wszystkim wyręczanie się AI. Jeśli student w całości zleca generatywnej sztucznej inteligencji napisanie eseju czy raportu, omija cały proces myślenia: selekcję materiału, analizę, syntezę. To trochę jakby nauczyć się korzystać ze skrótów klawiaturowych, nie znając funkcji programu. Efektem są dyplomy, za którymi nie stoi realna kompetencja.
Na poziomie prawnym pojawia się ryzyko naruszenia praw autorskich (AI może „odtworzyć” fragmenty cudzych tekstów) oraz ochrony danych studentów – szczególnie, gdy prace i dane osobowe są bezrefleksyjnie wkładane do komercyjnych narzędzi. Do tego dochodzą kwestie odpowiedzialności za treści: kto odpowiada za błędy lub szkodliwe rady wygenerowane przez AI używaną w ramach zajęć?
Na poziomie etycznym pojawia się pytanie, na ile korzystanie z AI jest jeszcze formą uczciwej współpracy z narzędziem, a kiedy staje się oszustwem. Uczelnie mają swoje kodeksy uczciwości akademickiej, ale nie zawsze są one dostosowane do sytuacji, w której część tekstu tworzy maszyna. Brak jasnego rozstrzygnięcia generuje liczne konflikty między studentami a kadrą.
Halucynacje, plagiaty i inne „ciemne strony” AI
Jedną z najbardziej mylących cech generatywnej AI jest jej pewność siebie. Narzędzie potrafi odpowiedzieć na niemal każde pytanie w sposób płynny, logiczny i pozbawiony wahań. To sprawia, że wielu użytkowników nie dostrzega, że w środku brak jest „rozumienia” – model statystycznie przewiduje kolejne słowa, nie weryfikując faktów.
Skutkiem są tak zwane halucynacje AI: zmyślone cytaty, nieistniejące źródła, nieprawdziwe dane, przekonująco podane bzdury. W praktyce uczelnianej oznacza to eseje, w których bibliografia wygląda wiarygodnie, ale część pozycji nie istnieje, lub analizy, które odwołują się do „badań”, których nikt nigdy nie przeprowadził. Jeśli wykładowca nie ma czasu lub narzędzi, by to weryfikować, takie treści mogą przechodzić przez sito oceny.
Drugim problemem jest plagiat pośredni. AI generuje teksty bazujące na ogromnych korpusach istniejących treści. W większości przypadków nie kopiuje dosłownie, ale zdarzają się sytuacje, gdy nowy tekst jest podejrzanie podobny do jednego konkretnego źródła. Student, który oddaje taką pracę, często nawet nie jest świadomy, że narusza czyjeś prawa autorskie – ale odpowiedzialność spada na niego.
Wreszcie, AI pozwala na bardzo szybkie „przemielenie” cudzych treści: parafrazowanie, „synonimizację”, zmianę szyku zdań. Z technicznego punktu widzenia trudno to wykryć klasycznymi narzędziami antyplagiatowymi, ale z perspektywy etyki akademickiej to wciąż przywłaszczanie cudzej pracy. Jeśli uczelnia nie ujednolici podejścia do takich przypadków, każdy wydział będzie reagował inaczej.
Szanse: personalizacja, feedback i wsparcie dydaktyczne
Po drugiej stronie bilansu są szanse, których zignorowanie byłoby zwyczajnym marnotrawstwem. Generatywna AI może pomóc w obszarach, z którymi uczelnie zmagają się od lat: indywidualizacja nauczania, szybka informacja zwrotna, tworzenie różnorodnych materiałów pomocniczych.
Student, który ma problem z jakimś zagadnieniem, może poprosić AI o wyjaśnienie „tak jak dla ucznia liceum”, „na przykładzie z piłki nożnej” albo „z perspektywy przyszłego inżyniera budownictwa”. Tego poziomu personalizacji często nie da się zapewnić na masowych zajęciach, gdzie wykładowca ma pod opieką kilkadziesiąt osób. AI w roli „pierwszej linii wsparcia” może znacząco odciążyć kadrę.
Dużą szansą jest też szybki feedback: narzędzie może pomóc studentowi ocenić strukturę pracy, zasugerować rozwinięcia, wskazać powtarzające się błędy językowe. Z kolei wykładowca może wykorzystać AI do wygenerowania wariantów zadań, przykładów do ćwiczeń, pytań testowych czy scenariuszy case studies – zamiast każdorazowo zaczynać od pustej kartki.
Dla uczelni, które budują wizerunek „Innowacje w Edukacji”, mądre wykorzystanie AI może stać się przewagą konkurencyjną. Kandydaci coraz częściej pytają, na ile program studiów jest powiązany z nowymi technologiami i czy przygotowuje do pracy w świecie, w którym narzędzia AI są standardem. Brak odniesienia do nich w dydaktyce bywa odczytywany jako zacofanie.
Jak rozmawiać ze studentami o AI bez straszenia
Najgorsza strategia to stawianie sztucznej inteligencji w roli „nowego wroga”, przed którym trzeba się bronić. Studenci widzą wtedy rozdźwięk między deklaracjami a rzeczywistością i po prostu przestają traktować uczelnię jako partnera. Znacznie skuteczniejsze jest podejście, w którym AI jest narzędziem wymagającym odpowiedzialności, tak jak samochód, konto bankowe czy dostęp do internetu.
W tym miejscu przyda się jeszcze jeden praktyczny punkt odniesienia: Wspólna baza kwalifikacji: jak uczelnie mogą współdzielić dane bez centralnego systemu.
Warto otwarcie pokazywać zarówno możliwości, jak i ograniczenia: konkretne przykłady halucynacji, uprzedzeń, błędów merytorycznych. Dobrym zabiegiem jest wspólne zrobienie na zajęciach krótkiego eksperymentu: studenci proszą AI o rozwiązanie zadania, a potem analizują, co jest sensowne, a co nie. Taki „demontaż” zaufania do nieomylności technologii bywa dużo skuteczniejszy niż zakazy.
Rozmowa powinna też dotykać konsekwencji długoterminowych. Osoba, która nauczy się sensownie współpracować z AI – zadawać dobre pytania, weryfikować odpowiedzi, krytycznie oceniać źródła – będzie miała przewagę na rynku pracy. Kto potraktuje AI jako maszynkę do załatwiania zadań, zbuduje nawyk powierzchowności. Dydaktyka może i powinna wzmacniać pierwszą postawę, a osłabiać drugą.

Fundamenty: jasne zasady i polityka korzystania z AI na uczelni
Po co uczelni spisana polityka AI
Bez jasnych zasad każdy wydział, a czasem każdy prowadzący, tworzy własne mini-regulaminy. Studenci szybko się gubią: na jednym przedmiocie AI jest gorąco zachęcana, na innym za użycie ChatGPT grozi niezaliczenie semestru. Spisana polityka AI na uczelni porządkuje odpowiedzialności i minimalizuje liczbę nieporozumień.
Dokument nie musi być od razu rozbudowany jak regulamin studiów. Na początek wystarczą jasne odpowiedzi na pytania:
- w jakich sytuacjach AI może być wykorzystywana przez studentów, a w jakich nie;
- jak należy oznaczać treści tworzone z pomocą AI;
Jak ujednolicić zasady między wydziałami
Przygotowanie polityki AI często ujawnia, jak bardzo różnią się oczekiwania między kierunkami. Informatyka chce „maksymalnie otwartych” zasad, prawo i kierunki medyczne – mocno zachowawczych. Zamiast na siłę uśredniać wszystko do jednego poziomu, lepiej zbudować ramy ogólnouczelniane, a w ich obrębie dopuścić lokalne doprecyzowania.
Ogólne ramy mogą określać m.in. wspólną definicję „dozwolonej pomocy AI”, obowiązek oznaczania użycia narzędzi, minimalne wymogi ochrony danych, zasady odpowiedzialności za treści. Dopiero na tym fundamencie wydziały czy kierunki doprecyzowują szczegóły: np. „na laboratoriach X nie wolno korzystać z AI w czasie zajęć”, „na seminarium dyplomowym dopuszczalne jest wsparcie AI przy korekcie językowej, ale nie przy tworzeniu treści merytorycznych”.
Dobrym zabiegiem jest też wprowadzenie jednej, czytelnej matrycy poziomów użycia AI, z którą mogą się identyfikować wszyscy prowadzący. Przykładowo:
- Poziom 0: AI niedozwolona w ramach tego przedmiotu (np. testy kompetencyjne, egzaminy wstępne).
- Poziom 1: AI dozwolona wyłącznie do zadań organizacyjnych i językowych (formatowanie, korekta, streszczenia).
- Poziom 2: AI jako „asystent” – pomoc przy pomysłach, strukturze pracy, ale z obowiązkiem szczegółowego opisu tego wsparcia.
- Poziom 3: AI jako integralna część zadania (np. analiza wyników wygenerowanych przez model, krytyczna ocena odpowiedzi AI).
Dzięki takiej matrycy student widzi w sylabusie prostą informację „ten przedmiot: Poziom 1”, zamiast wertować kilkustronicowe regulaminy. Prowadzący z kolei ma mniej pokusy, by tworzyć zupełnie własne, oderwane od całości zasady.
Jak komunikować politykę AI studentom i kadrze
Nawet najlepsza polityka pozostanie martwym dokumentem, jeśli nikt nie wie, że istnieje. Komunikacja nie może ograniczać się do wysłania jednego maila przed początkiem roku akademickiego. Lepsze efekty przynosi kilka prostych, powtarzalnych rytuałów.
Dobrym punktem wyjścia jest krótkie omówienie zasad na pierwszych zajęciach z nową grupą. Prowadzący może poświęcić 10 minut na wyjaśnienie, jaki poziom użycia AI obowiązuje na danym przedmiocie, jakie są przykłady akceptowalne, a jakie nie. Dobrze działa prośba, by studenci podali przykłady z własnego doświadczenia – rozmowa staje się wtedy bardziej konkretna, a mniej „regulaminowa”.
Warto też przygotować zwięzłe materiały dla studentów: jedną stronę PDF lub prostą infografikę z zasadami, przykładami i odnośnikiem do pełnej polityki. Umieszczenie jej w wirtualnym dziekanacie, systemie e-learningowym i na tablicach ogłoszeń sprawia, że jest zawsze „pod ręką”.
Kadra potrzebuje z kolei przestrzeni na pytania i wątpliwości: krótkich webinarów, konsultacji z zespołem prawnym czy działem IT, wymiany dobrych praktyk między wydziałami. W wielu zespołach największą barierą nie jest sama technologia, ale lęk: „nie znam się na tym, więc lepiej zakażę”. Im więcej okazji do spokojnego przećwiczenia narzędzi i scenariuszy, tym mniej reakcji skrajnych.
Oznaczanie i dokumentowanie korzystania z AI
Kluczowy element polityki to transparentność. Studenci powinni wiedzieć, że nikt nie oczekuje „heroicznego” unikania AI na każdym kroku, ale wymaga się otwartego przyznania: „tu skorzystałem z narzędzia, w taki sposób”.
Można wprowadzić prosty wymóg: na końcu każdej pracy czy projektu student dodaje krótką sekcję, np. „Deklaracja użycia AI”, w której zapisze:
- z jakich narzędzi korzystał (np. nazwa modelu lub serwisu);
- do jakich zadań (pomysły, struktura, korekta językowa, generowanie kodu itp.);
- jak weryfikował uzyskane odpowiedzi.
Przykładowa adnotacja może wyglądać tak: „W trakcie pracy korzystałem z narzędzia ChatGPT-4 do wygenerowania początkowych propozycji struktury eseju oraz do korekty językowej. Treści merytoryczne zostały opracowane na podstawie wskazanej w bibliografii literatury”. Taki nawyk uczy odpowiedzialności i zdejmuje z AI aurę „tajnej broni”.
Dla prac dyplomowych można przewidzieć bardziej rozbudowaną formę dokumentowania: osobny podrozdział opisujący narzędzia AI i ich rolę w badaniach, wraz z refleksją nad ograniczeniami. Dzięki temu recenzent widzi, gdzie kończy się wkład studenta, a zaczyna wsparcie technologiczne.
Ramy prawne i ochrona danych – na co wykładowca musi uważać w praktyce
Podstawowe pytania prawne przy korzystaniu z AI na uczelni
Wykładowca, który sięga po generatywną AI, nie musi być prawnikiem, ale dobrze, by umiał zadać kilka kluczowych pytań. Kto jest administratorem danych w danym narzędziu? Czy dane studentów są wysyłane poza Europejski Obszar Gospodarczy? Czy dostawca jasno określa, co robi z treściami wprowadzanymi przez użytkowników?
Na koniec warto zerknąć również na: Czy AI zastąpi korepetycje? — to dobre domknięcie tematu.
Jeśli uczelnia korzysta z komercyjnych rozwiązań, powinna mieć podpisane umowy powierzenia przetwarzania danych i sprawdzić, czy usługodawca spełnia wymogi RODO. W praktyce oznacza to m.in. weryfikację lokalizacji serwerów, procedur bezpieczeństwa, sposobu anonimizacji danych. Z perspektywy prowadzącego ważne jest, by nie wprowadzać do narzędzi AI danych pozwalających zidentyfikować konkretnego studenta, jeśli uczelnia nie zapewniła odpowiednich gwarancji prawnych.
Niebezpieczna sytuacja to choćby wklejanie do chatbota pełnych prac, ocen, komentarzy do egzaminów czy danych medycznych z zajęć klinicznych. Nawet jeśli narzędzie deklaruje „prywatność rozmów”, odpowiedzialność za ewentualny wyciek lub niewłaściwe użycie danych może spaść na uczelnię i konkretnego prowadzącego.
RODO w praktyce zajęć z AI
RODO często kojarzy się z grubymi segregatorami dokumentów, ale na poziomie sali zajęciowej sprowadza się do kilku prostych zasad. Po pierwsze, minimalizacja danych: jeśli student ma korzystać z AI, nie musi wpisywać swojego imienia, nazwiska czy numeru albumu w treści zadania. Zamiast „przeanalizuj ocenę studenta Jana Kowalskiego”, lepiej użyć neutralnego opisu, np. „przeanalizuj ten zestaw odpowiedzi”.
Po drugie, anonimizacja materiałów ćwiczeniowych. Gdy wykładowca wykorzystuje prace z poprzednich lat jako przykłady do analizy przez AI, powinien usunąć imiona, nazwiska, numery indeksów i inne elementy pozwalające zidentyfikować konkretną osobę. Anonimizacja nie musi być wyrafinowana – często wystarczy zamiana danych osobowych na inicjały lub neutralne oznaczenia typu „Student A”.
Po trzecie, świadoma zgoda w sytuacjach wrażliwych. Na kierunkach medycznych, psychologicznych czy pedagogicznych zdarzają się zajęcia, na których analizuje się dane szczególnie chronione. Jeżeli fragmenty takich opisów miałyby zostać wprowadzone do narzędzia AI, trzeba rozstrzygnąć, czy wystarczy anonimizacja, czy konieczne jest sięgnięcie po zupełnie inne, sztucznie wygenerowane przykłady. W wielu przypadkach bezpieczniej jest nie przenosić realnych, wrażliwych danych do komercyjnych systemów.
Prawa autorskie a treści generowane przez AI
Prawo autorskie nie nadąża za tempem rozwoju AI, ale kilka zasad jest już dość klarownych. W większości jurysdykcji, także w Polsce, treści w całości wygenerowane przez maszynę nie są chronione prawem autorskim, bo brakuje elementu twórczego działania człowieka. Oznacza to, że „esej napisany przez AI” formalnie nie ma autora, ale student, który oddaje go jako własny, dopuszcza się nieuczciwości akademickiej z innego powodu – przypisuje sobie pracę, której nie wykonał.
Problem zaczyna się wtedy, gdy AI „podchwyci” i niemal skopiuje fragment cudzego utworu. Student może nie zdawać sobie sprawy, że generowany tekst jest blisko związany z konkretną książką czy artykułem. Dobrą praktyką jest więc wymaganie od studentów, by zawsze weryfikowali bibliografię: sprawdzali, czy cytowane źródła istnieją, a także czy treść pracy nie powstała wyłącznie na bazie jednego opracowania. Zadaniem nauczyciela nie jest śledzenie każdego zdania, ale uczenie studenta, by sam widział ryzyka.
Od strony organizacyjnej uczelnia może też jasno wskazać, jak traktuje narzędzia AI w kontekście systemów antyplagiatowych. Nawet jeśli klasyczne oprogramowanie nie „wykryje” użycia AI, regulamin może stanowić, że praca budząca silne podejrzenia (np. nagła zmiana stylu, brak błędów typowych dla danej osoby) może zostać poddana dodatkowej weryfikacji – na przykład poprzez rozmowę ze studentem lub zadania uzupełniające.
Odpowiedzialność za błędy i szkody wywołane przez AI
Jeżeli AI generuje błąd merytoryczny, który student powiela na egzaminie, trudno obciążać odpowiedzialnością dostawcę technologii. Z perspektywy uczelni za ocenę wiedzy zawsze odpowiada człowiek – egzaminator, promotor, recenzent. Podobnie, jeśli student skorzysta z AI do skonstruowania błędnego doświadczenia laboratoryjnego, odpowiedzialność za dopuszczenie takiego scenariusza do praktyki spoczywa na prowadzącym zajęcia.
Dlatego tak ważne jest, by nie opierać krytycznych elementów dydaktyki wyłącznie na wynikach AI. W obszarach, w których błąd może prowadzić do realnej szkody (np. medycyna, inżynieria, bezpieczeństwo), narzędzie powinno pełnić funkcję pomocniczą: podsuwać pomysły, warianty rozwiązań, które następnie są weryfikowane przez człowieka. Tę zasadę warto zapisać w polityce uczelni, aby ograniczyć nieporozumienia i nadmierne poleganie na technologii.

Etyczne korzystanie z generatywnej AI w procesie dydaktycznym
Uczciwość akademicka w nowym kontekście
Kodeksy etyki akademickiej powstały w czasach, gdy problemem był głównie klasyczny plagiat: kopiowanie cudzych tekstów bez cytowania. Generatywna AI wprowadza nową szarą strefę. Czy „przepuszczenie” własnego tekstu przez narzędzie parafrazujące to już oszustwo? A poproszenie modelu o napisanie wstępu do pracy na podstawie zebranych przez siebie notatek?
Zamiast próbować dopisać do kodeksów długie listy zakazanych zachowań, sensownie jest oprzeć się na kilku prostych zasadach. Po pierwsze, student powinien zawsze móc wyjaśnić i obronić treści, które sygnuje swoim nazwiskiem. Jeśli nie potrafi wytłumaczyć podstawowych pojęć z własnej pracy, to sygnał, że zastąpił uczenie się „produkcją treści”.
Po drugie, korzystanie z AI nie może ukrywać źródła pomysłów. Jeśli tekst, struktura argumentacji czy przykład pochodzą wprost z narzędzia, warto to zaznaczyć w deklaracji użycia. Dzięki temu granica między własną pracą a wsparciem jest czytelna – dla prowadzącego, ale też dla samego studenta.
Równość szans i dostęp do narzędzi
Jednym z mniej oczywistych wyzwań etycznych jest nierówny dostęp do wysokiej jakości narzędzi AI. Część studentów kupi abonamenty premium, inni będą korzystać tylko z darmowych, okrojonych wersji. Na niektórych kierunkach może to prowadzić do realnej przewagi: ktoś, kto ma dostęp do lepszego modelu, szybciej przygotuje projekt, zada „mądrzejsze” pytania, uzyska bardziej dopracowane odpowiedzi.
Uczelnia, która chce dbać o równość szans, powinna rozważyć udostępnienie podstawowych narzędzi AI w ramach infrastruktury uczelnianej. Może to być centralna licencja na wybrane modele, zintegrowanie ich z systemem e-learningowym czy stworzenie „laboratoriów cyfrowych” z dostępem do AI dla osób, które nie mają mocnego sprzętu w domu. Dzięki temu dyskusja o etyce przestaje być teoretyczna – studenci rzeczywiście mają podobne możliwości.
Na poziomie zajęć prowadzący może zadbać o to, by kluczowe zadania oceniane nie premiowały wyłącznie tych, którzy umieją „wycisnąć” z AI najwięcej. Dlatego dobrym pomysłem jest łączenie pracy z AI z elementami, które wymagają kontaktu bezpośredniego: prezentacji ustnych, obrony projektów, refleksyjnych dzienników z procesu uczenia się.
Uprzedzenia i reprodukcja stereotypów przez AI
Modele generatywne uczą się na ogromnych zbiorach danych, które odzwierciedlają realne uprzedzenia i nierówności. Jeśli poprosimy AI o „typowego inżyniera budownictwa”, może zacząć opisywać mężczyznę; jeśli zapytamy o „sekretarkę”, często pojawi się kobieta. W dydaktyce takie przykłady mogą utrwalać stereotypy, nawet jeśli prowadzący ma zupełnie inne intencje.
Świadome korygowanie uprzedzeń w pracy z AI
Prowadzący, który korzysta z AI na zajęciach, przyjmuje na siebie rolę „filtra zdrowego rozsądku”. Model może podsunąć przykłady, które są wygodne, ale schematyczne. Zamiast przyjmować je bezrefleksyjnie, dobrze jest celowo prowokować sytuacje ujawniające stronniczość – i omawiać je ze studentami.
Prosty zabieg: poprosić AI o opis „idealnego lidera zespołu projektowego”, a potem zadać pytanie: „kogo tu nie ma?”. Czy pojawiają się osoby z niepełnosprawnościami, czy liderką bywa osoba spoza dominującej kultury? Taka analiza nie musi zamieniać zajęć w seminarium z socjologii – chodzi o pokazanie, że żaden model nie jest neutralny.
Dobrą praktyką jest też zmiana sposobu formułowania poleceń. Zamiast prośby o „typowego pracownika IT”, lepiej poprosić o „różnorodny zespół specjalistów IT z uwzględnieniem płci, wieku i pochodzenia kulturowego”. Prowadzący pokazuje w ten sposób, że jakość promptu to także odpowiedzialność etyczna, a nie tylko trik techniczny.
Jeśli na zajęciach pojawi się oczywiście stereotypowa odpowiedź AI, nie ma sensu udawać, że nic się nie stało. Krótkie zatrzymanie: „zobaczcie, model założył, że inżynier to mężczyzna – skąd to się może brać?” często działa lepiej niż godzinny wykład o biasie w danych treningowych.
Transparentność korzystania z AI wobec studentów
Studenci dość szybko wyczuwają, czy prowadzący „ukrywa” użycie AI, czy traktuje je jako normalne narzędzie pracy. Jeśli wykładowca przygotowuje część materiałów z pomocą modelu, otwarta informacja o tym buduje zaufanie i modeluje pożądane postawy. Można dodać krótką adnotację przy slajdzie: „wstępny zarys przygotowany z użyciem narzędzia AI, treść zweryfikowana przez prowadzącego”.
Taka praktyka ma jeszcze jeden efekt uboczny: studenci widzą, że nawet ekspert traktuje odpowiedź AI jako szkic, a nie gotowy produkt. Łatwiej wtedy przyjąć zasadę, że każdy wygenerowany tekst trzeba przerobić, uzupełnić, podpisać własną głową. Dla wielu osób to pierwszy kontakt z uczciwym „współautorstwem” człowieka i maszyny.
Transparentność oznacza też jasne rozróżnienie: które elementy zajęć są przestrzenią do eksperymentów z AI, a gdzie wsparcie technologiczne jest ograniczone lub wręcz niedozwolone. Konkret: „na ćwiczeniach projektowych możesz wspierać się AI i opisujesz to w dzienniku refleksyjnym; w teście końcowym korzystanie z narzędzi zewnętrznych jest zabronione”.
Projektowanie zajęć i zadań „odpornych” na nadużycia AI
Od oceny produktu do oceny procesu
Tradycyjny model zaliczenia koncentruje się na „produkcie końcowym”: eseju, projekcie, prezentacji. Generatywna AI wywraca ten porządek, bo sam produkt można dziś wygenerować w kilka minut. Rozwiązaniem nie jest gonienie technologii, ale przesunięcie ciężaru oceny na proces.
W praktyce oznacza to włączanie do oceny elementów takich jak:
- dziennik pracy – krótkie, regularne zapisy, co zostało zrobione między zajęciami, z jakich materiałów lub narzędzi korzystał student (w tym z jakiej AI), jakie napotkał trudności;
- wersjonowanie – prośba o przechowywanie kolejnych szkiców pracy (np. w systemie uczelnianym), tak aby było widać, jak tekst lub projekt ewoluował;
- element ustny – krótka obrona pracy, rozmowa o kluczowych decyzjach projektowych, o tym, które fragmenty powstały z pomocą AI, a które samodzielnie.
Student, który faktycznie przeszedł proces uczenia się, bez trudu opowie, dlaczego zdecydował się na takie, a nie inne rozwiązanie. Osoba, która w ostatniej chwili wygenerowała pracę w narzędziu AI, zwykle ma z tym poważny problem. To bardziej wiarygodny sygnał niż jakikolwiek „detektor AI”.
Zadania wymagające osobistego kontekstu
Jednym z prostszych sposobów ograniczania nadużyć jest projektowanie zadań silnie osadzonych w osobistym lub lokalnym kontekście. Model językowy świetnie radzi sobie z ogólnymi esejami o „wpływie globalizacji na gospodarkę”, znacznie gorzej z opisem tego, jak zmienił się lokalny rynek pracy w małym mieście, w którym mieszka student.
Przykładowe modyfikacje zadań:
- zamiast „omów wpływ mediów społecznościowych na zdrowie psychiczne młodzieży” – „opisz, jak korzystasz z mediów społecznościowych i które strategie pomagają ci dbać o własny dobrostan; odnieś to do dwóch wybranych badań naukowych”;
- zamiast „przedstaw historię rozwoju samorządu terytorialnego w Polsce” – „przeanalizuj funkcjonowanie rady gminy/miasta, z której pochodzisz, korzystając z dokumentów publicznych i lokalnych mediów”.
AI nadal może pomóc w uporządkowaniu myśli czy sprawdzeniu poprawności językowej, ale rdzeń zadania – doświadczenie, obserwacja, rozmowa, wizyta w instytucji – pozostaje po stronie studenta. Tego nie da się „wyklikać” w pięć minut.
Zadania projektowe krok po kroku
Prace, które da się oddać „hurtowo” na koniec semestru, są najbardziej podatne na nadużycia. Warto więc dzielić większe projekty na mniejsze, powiązane etapy, z których każdy wymaga innego typu aktywności.
Dla przykładu projekt badawczy może wyglądać tak:
- krótka koncepcja (1–2 strony): pytanie badawcze, motywacja, wstępny przegląd literatury – omawiane wspólnie na zajęciach;
- plan metody: opis narzędzi, sposobu doboru próby, potencjalnych ograniczeń – konsultowany w małych grupach;
- raport z realizacji: co udało się zrobić, czego nie, dlaczego – oparty na faktycznym przebiegu pracy;
- prezentacja wyników: forma dowolna (referat, plakat, poster cyfrowy), ale z obowiązkową częścią dotyczącą roli AI w procesie (jeśli była używana).
Nawet jeśli w jednym z etapów student posiłkuje się AI, łączne spojrzenie na wszystkie elementy ujawnia spójność (lub jej brak) w sposobie myślenia. Ocenie podlega nie tylko estetyka raportu, ale też dojrzałość decyzji na kolejnych krokach.
Włączanie AI w zadania w sposób kontrolowany
Zamiast próbować całkowicie „odciąć” AI od zadań, można przewidzieć w nich jawne momenty wykorzystania narzędzia. Wówczas pytanie brzmi nie „czy użyłeś AI?”, tylko „jak to zrobiłeś i co z tym dalej zrobiłeś?”.
Przykład na kierunkach humanistycznych: studenci dostają zadanie, by poprosić model o streszczenie trudnego artykułu naukowego, a następnie:
- wskazać, które fragmenty streszczenia są trafne, a gdzie AI spłyciła lub zniekształciła argumentację;
- uzupełnić streszczenie własnymi wnioskami i pytaniami badawczymi;
- napisać krótką refleksję o tym, jak korzystanie z takiego wsparcia wpływa na ich rozumienie tekstu.
Tak skonstruowane zadanie uczy sceptycyzmu i analizy krytycznej, zamiast zachęcać do ślepego kopiowania odpowiedzi. AI staje się przedmiotem nauki, a nie jedynie „maszynką do generowania treści”.
I wreszcie, uczelnia, która nie ma spójnej polityki AI, traci wiarygodność w oczach partnerów z biznesu i innych instytucji edukacyjnych. Kiedy inne ośrodki wdrażają praktyczne wskazówki: edukacja oparte na realnym użyciu technologii, brak refleksji nad AI może być odebrany jako brak gotowości do funkcjonowania w nowym ekosystemie nauki i pracy.
Jak mądrze włączać AI do nauczania – scenariusze wykorzystania na różnych kierunkach
Kierunki humanistyczne i społeczne
Na filologiach, historii, socjologii czy psychologii generatywna AI może pełnić rolę inteligentnego sparingpartnera. Studenci mogą testować argumenty, dyskutować z „wirtualnym oponentem”, prosić o kontrargumenty do własnych tez. Dobrą praktyką jest zadanie typu „napisz esej, a następnie poproś AI o pięć najmocniejszych kontrargumentów i odpowiedz na nie własnymi słowami”.
Inna możliwość to praca na tekstach źródłowych. AI może pomóc w:
- tworzeniu wstępnych streszczeń długich opracowań (z naciskiem na późniejszą weryfikację);
- propozycji alternatywnego układu rozdziałów pracy dyplomowej;
- symulowaniu wypowiedzi autora z danej epoki – po to, by następnie skonfrontować je z faktycznymi źródłami.
Ważny jest jednak jasny komunikat: AI nie zastępuje lektury. Może być „mapą”, która pokazuje potencjalne ścieżki interpretacji, ale przejście tymi ścieżkami należy do studenta.
Kierunki ścisłe i techniczne
Na matematyce, informatyce czy inżynierii AI świetnie sprawdza się jako narzędzie do rozbijania złożonych problemów na mniejsze części. Student może poprosić model o podpowiedź, od czego zacząć dowód, jak rozłożyć zadanie obliczeniowe na etapy, jakie są typowe błędy w danym typie zadań.
Dla prowadzącego użyteczne są scenariusze typu:
- „porównaj swoje rozwiązanie zadania z propozycją AI; wskaż różnice w podejściu i oceń, które jest bardziej eleganckie lub efektywne”;
- „poproś AI o napisanie programu rozwiązującego zadany problem, a następnie znajdź i omów trzy potencjalne błędy lub nieoptymalne fragmenty kodu”.
Na laboratoriach inżynierskich model może pomóc w generowaniu hipotez, wariantów konstrukcji czy parametrów do symulacji, ale decyzja o dopuszczeniu rozwiązania do praktyki musi pozostać po stronie prowadzącego. „AI jako generator pomysłów, człowiek jako inżynier bezpieczeństwa” to zdrowy podział ról.
Kierunki medyczne i okołomedyczne
W medycynie kuszące bywa użycie AI do „diagnozowania” przypadków klinicznych. Na etapie kształcenia bezpieczniej jest traktować narzędzie jako pomoc w strukturze myślenia diagnostycznego, a nie jako orzecznika.
Przykład: studenci otrzymują opis przypadku (odpowiednio zanonimizowany), samodzielnie formułują hipotezy, a dopiero potem proszą AI o listę możliwych rozpoznań. Następnie porównują oba zestawy i analizują, dlaczego ich myślenie poszło w inną stronę. Taki scenariusz pomaga wyłapać własne błędy poznawcze i pokazuje, że model też nie jest nieomylny.
W naukach o zdrowiu AI może służyć do:
- symulowania rozmów z pacjentem (np. w treningu komunikacji klinicznej),
- generowania wariantów planów edukacji zdrowotnej dla różnych grup odbiorców,
- tworzenia quizów z wiedzy farmakologicznej czy anatomicznej, które następnie są weryfikowane przez prowadzącego.
Kluczowy jest tu jasny zakaz wprowadzania realnych, identyfikowalnych danych pacjentów do komercyjnych narzędzi oraz ciągłe podkreślanie, że AI nie zastępuje procedur klinicznych ani konsultacji z doświadczonym lekarzem.
Kierunki artystyczne i kreatywne
Na akademiach sztuk pięknych, uczelniach muzycznych czy kierunkach projektowych AI bywa traktowana jak „nieproszeni współautorzy”. Tymczasem można ją włączyć w program w sposób, który wzmacnia, a nie osłabia indywidualność twórczą.
Jedna z możliwości to wykorzystanie modeli generatywnych jako narzędzi do szybkiego prototypowania koncepcji. Student projektowania graficznego może wygenerować kilkanaście wariantów kompozycji, a potem przejść do manualnego dopracowywania najbardziej obiecujących. Na zajęciach analizuje się wtedy różnice między szkicem AI a finalną pracą, wskazując, gdzie zaczyna się „jego” język wizualny.
W muzyce czy literaturze eksperymentalnej AI może być partnerem w tworzeniu – generować motywy, które następnie są rozwijane, przetwarzane, dekonstrukowane. Warunkiem sensownego wykorzystania jest tu świadome oznaczanie ról: co jest materiałem wyjściowym z maszyny, a co autorską decyzją artystyczną. Na zajęciach można wręcz wprowadzić obowiązek krótkiej adnotacji: „w tym fragmencie kompozycji użyto motywu wygenerowanego przy pomocy modelu X, który został następnie zmodyfikowany w następujący sposób…”.
Kierunki ekonomiczne, zarządzanie, prawo
W naukach o zarządzaniu i ekonomii AI świetnie sprawdza się jako narzędzie do symulowania scenariuszy biznesowych. Studenci mogą prosić model o wygenerowanie kilku wariantów strategii wejścia na nowy rynek, a ich zadaniem jest ocena realności tych propozycji, wskazanie braków danych i przygotowanie własnych rekomendacji.
Na prawie generatywna AI może służyć do:
- tworzenia szkiców pism (np. prostych wezwań do zapłaty), które następnie studenci poprawiają pod kątem języka prawniczego i zgodności z procedurą;
- symulowania argumentacji stron w sporze, gdzie zadaniem grupy jest wskazanie, które argumenty są mocne, a które stoją w sprzeczności z aktualnym orzecznictwem;
Najczęściej zadawane pytania (FAQ)
Czy uczelnia może całkowicie zakazać korzystania z ChatGPT i innych narzędzi AI?
Formalnie uczelnia może wprowadzić zakaz, ale w praktyce jest to coraz mniej skuteczne. Studenci korzystają z generatywnej AI poza murami uczelni – w domach, akademikach, w drodze na zajęcia. Zakaz przypomina dziś oczekiwanie, że w erze Google’a nikt nie będzie używał wyszukiwarki.
Dużo rozsądniejsze jest określenie, w jakich sytuacjach korzystanie z AI jest dozwolone (np. do sprawdzania gramatyki, generowania konspektu, szukania przykładów), a w jakich zabronione (np. generowanie całego eseju oddawanego do oceny). Jasne, uczciwie opisane zasady zmniejszają „szarą strefę” i konflikty między studentami a prowadzącymi.
Jak bezpiecznie włączyć generatywną AI do procesu dydaktycznego na uczelni?
Bezpieczne włączenie AI zaczyna się od prostych kroków: spisania zasad użycia, krótkiego przeszkolenia kadry i studentów oraz dostosowania form zaliczeń. Warto opisać, co jest: dozwoloną pomocą (np. wyjaśnienie pojęcia, podanie przykładowych zadań), częściowym wsparciem wymagającym ujawnienia (np. „AI pomogła mi uporządkować strukturę pracy”), a co jawnym naruszeniem zasad.
Dobrze sprawdza się także projektowanie zadań, których AI nie „załatwi” za studenta: odwołujących się do własnych doświadczeń, lokalnych danych, analizy konkretnych przypadków z zajęć. Wtedy narzędzie działa jak asystent, a nie „ghostwriter”, który podpisuje się pod całą pracą.
Jak odróżnić uczciwe wykorzystanie AI od oszustwa akademickiego?
Prosty test brzmi: czy student mógłby obronić każdy fragment pracy ustnie, bez pomocy AI? Jeśli rozumie użyte pojęcia, potrafi wyjaśnić, skąd wziął dane argumenty i jak je przetworzył, mówimy raczej o wsparciu narzędziem. Jeśli natomiast nie umie wytłumaczyć własnego tekstu, to sygnał, że oddał głos maszynie.
Pomaga też wymóg jawności: student może być zobowiązany do krótkiej informacji, jak korzystał z AI (np. w przypisie czy osobnej sekcji). Uczciwe użycie to: inspirowanie się pytaniami, proszenie o przykłady, sprawdzanie języka. Oszustwem staje się sytuacja, gdy cała treść jest wygenerowana i przedstawiona jako w pełni własna praca intelektualna.
Jakie są największe ryzyka korzystania z generatywnej AI na uczelni?
Najbardziej dokuczliwe są trzy grupy ryzyk: dydaktyczne, prawne i etyczne. Dydaktyczne to przede wszystkim „oddawanie myślenia” narzędziu – student omija analizę, syntezę, krytyczną refleksję. Pojawia się dyplom, za którym nie zawsze stoi realna umiejętność.
Ryzyka prawne dotyczą głównie praw autorskich (AI może odtworzyć cudze treści) i ochrony danych – kiedy do komercyjnego narzędzia wklejamy np. fragmenty prac dyplomowych wraz z danymi osobowymi. W tle są też dylematy etyczne: gdzie przebiega granica między wspomaganiem się technologią a oszustwem oraz jak równo traktować studentów korzystających i niekorzystających z AI.
Czym generatywna AI różni się od zwykłej wyszukiwarki czy kalkulatora w edukacji?
Wyszukiwarka podaje listę linków, kalkulator liczy według z góry określonych reguł. Generatywna AI robi coś więcej: tworzy nowy tekst, kod lub podsumowanie na podstawie wzorców wyuczonych z ogromnych zbiorów danych i prowadzi dialog w języku naturalnym. To raczej „rozmówca z pamięcią do przykładów” niż proste narzędzie.
Dla dydaktyki oznacza to, że zadania oparte wyłącznie na poprawnym zredagowaniu tekstu AI zrobi na przyzwoitym poziomie. Natomiast zadania wymagające odniesienia do własnej praktyki, lokalnego kontekstu, krytycznego porównania teorii wciąż stawiają człowieka na pierwszym planie, a rolę AI redukują do podpowiadacza i pomocnika.
Jak uczelnia może ograniczyć halucynacje i plagiaty generowane przez AI w pracach studentów?
Kluczowe jest uczenie studentów krytycznego korzystania z AI. Narzędzie należy traktować jak „bardzo elokwentnego kolegę, który czasem zmyśla” – wszystko, co podaje (cytaty, dane, źródła), trzeba weryfikować w wiarygodnych publikacjach. Warto jasno powiedzieć: bibliografia z AI to tylko wstępny trop, a nie gotowa lista.
Od strony organizacyjnej pomagają: obowiązkowe konsultacje prac (np. krótka rozmowa o użytych źródłach), zadania z częściami wykonywanymi na oczach prowadzącego oraz stosowanie narzędzi antyplagiatowych. Dobrą praktyką jest też zakaz wklejania do AI wrażliwych danych: nazwisk badanych, nieopublikowanych wyników, pełnych prac dyplomowych.
Czy uczelnie powinny tworzyć własną politykę i regulamin korzystania z AI?
Tak, spójna polityka AI pomaga uniknąć chaosu, w którym każdy prowadzący ma inne zasady, a studenci błądzą między zakazami a pełną dowolnością. Taki dokument nie musi być skomplikowany – wystarczy, że jasno opisze: cele korzystania z AI, dozwolone i niedozwolone formy wsparcia oraz obowiązki dotyczące jawności użycia narzędzi.
Dobrą praktyką jest także aktualizowanie regulaminu co 1–2 lata, bo narzędzia szybko się zmieniają. W wielu miejscach na świecie powstają już „kodeksy uczciwości akademickiej z AI”, oparte na prostym założeniu: rozwijamy kompetencje cyfrowe studentów, ale nie rezygnujemy z odpowiedzialności i rzetelności pracy naukowej.






