Ekspertka dodała, że kluczowe jest świadome korzystanie z technologii oraz zmiana sposobu oceniania w edukacji.
Jej zdaniem coraz więcej wyników badań wskazuje, że duże modele językowe nie zawsze sprzyjają procesowi uczenia się, zwłaszcza w przypadku osób, które nie mają jeszcze ugruntowanej wiedzy w danej dziedzinie.
- Wyniki badań coraz częściej sugerują, że modele językowe są nie tylko nieoptymalne dla procesu uczenia się, ale wręcz mogą mieć negatywny wpływ na rozwój wiedzy i umiejętności w przypadku osób nie mających wiedzy własnej w danej dziedzinie – powiedziała Mytnik. Dodała, że korzystanie z narzędzi generatywnej AI może prowadzić do nadmiernego polegania na technologii i w efekcie osłabiać zdolność samodzielnego rozwiązywania problemów.
Jak zaznaczyła, istnieje wyraźny związek między poziomem krytycznego myślenia a zależnością od narzędzi AI. - Osoby z najniższym poziomem umiejętności krytycznego myślenia są najczęściej najbardziej zależne od AI – podkreśliła.
Badaczka przywołała również eksperymenty z wykorzystaniem EEG (to nieinwazyjna metoda diagnostyczna pozwalająca zbadać bioelektryczną czynność mózgu), w których analizowano aktywność mózgu młodych osób piszących eseje przy wsparciu ChatGPT.
- Wykazały one najsłabsze wzorce połączeń neuronalnych, miały trudności z przypomnieniem sobie tego, co przed chwilą pisały, zgłaszały mniejsze poczucie własności pracy – wskazała prof. Mytnik.
Jednocześnie – jak dodała – wyniki badań pokazują, że inne efekty obserwuje się, gdy AI wykorzystywana jest dopiero po etapie samodzielnej pracy. - W grupie osób, która korzystała z narzędzi GenAI dopiero po etapie pracy własnej, zaobserwowano znaczny wzrost połączeń neuronalnych. Te wyniki sugerują, że ponowne zaangażowanie wspierane przez narzędzia GenAI wywołuje wysoki poziom integracji poznawczej i reaktywacji pamięci – powiedziała.
Prof. Mytnik zwróciła uwagę także na inne zagrożenia związane z działaniem chatbotów. - Są one tak zaprojektowane, aby były zarówno pomocne, jak i angażujące, stale oferują pochlebstwa i spełniają oczekiwania użytkowników, a to jest uzależniająca kombinacja – oceniła. W tym kontekście wskazała na zjawisko tzw. sykofancji w dużych modelach językowych, czyli tendencję systemów do bezrefleksyjnego zgadzania się z użytkownikiem.
- To kluczowy problem etyczny i poznawczy LLMów (LLM to model językowy wyszkolony na dużej ilości danych umożliwiający generowanie tekstu - przyp.PAP) – podkreśliła badaczka. Jak dodała, badania pokazują, że modele bardziej „uprzejme” są często jednocześnie mniej krytyczne i mniej prawdomówne.
Ekspertka wskazała również na rosnącą popularność platform umożliwiających tworzenie wirtualnych towarzyszy. Przywołała badania Pew Research, według których ponad połowa nastolatków w wieku 13–17 lat regularnie korzysta z platform takich jak "character.ai". Zwróciła uwagę, że badacze ostrzegają, że tego typu rozwiązania mogą zwiększać ryzyko dla zdrowia psychicznego młodych ludzi i zacierać granice między rzeczywistością a światem wirtualnym.
- Bądźmy świadomi tego, że jeśli w coraz większym stopniu polegamy na chatbotach, z czasem tracimy umiejętność budowania głębokich więzi z ludźmi, akceptowania odmiennych zdań i współpracy – powiedziała Mytnik.
Jednocześnie podkreśliła, że sztuczna inteligencja może być bardzo użytecznym wsparciem w nauce – pod warunkiem, że nie zastępuje procesu rozumienia.
- Chcę jasno zaznaczyć, że narzędzia AI mogą znakomicie wspierać w procesie uczenia się, wyręczać nas w wielu zadaniach, ale nie powinny zastępować procesu rozumienia i internalizacji wiedzy. Trzeba używać ich świadomie – dodała.
Wyjaśniła, że tworzenie trwałej wiedzy wymaga wysiłku poznawczego, polegającego na wyszukiwaniu i łączeniu informacji. - To jak wydeptywanie ścieżki w chaszczach: im więcej razy nią chodzić, tym jest trwalsza, a nieużywana zanika – obrazowo tłumaczyła.
Jej zdaniem delegowanie tego wysiłku na narzędzia generatywnej AI może prowadzić do zjawiska „pozornego rozumienia”.
- Poleganie na zewnętrznych narzędziach omija proces tworzenia i wzmacniania śladów pamięciowych prowadząc do rozumienia pozornego, mamy złudne poczucie własności procesu, ale to iluzja – podkreśliła.
Ekspertka wskazała jednak wiele sposobów konstruktywnego wykorzystania chatbotów w nauce. Mogą one wspierać m.in. refleksję nad własnym myśleniem, porządkowanie notatek czy symulację dialogu.
- Chatboty świetnie wspierają w symulacji dialogu – można pozwolić AI zagrać rolę sceptyka, który zadaje trudne pytania – powiedziała. Dodała, że studenci mogą także wykorzystywać AI do analizowania różnych perspektyw danego problemu czy do planowania powtórek materiału w oparciu o metodę rozłożonego powtarzania.
Zdaniem Mytnik rozwój generatywnej AI wymusza również głęboką zmianę w sposobie oceniania studentów. - Tradycyjny model oceniania skoncentrowany na efekcie końcowym traci swoją funkcję rozwojową i diagnostyczną – oceniła.
Jak wskazała, modele językowe potrafią generować poprawne odpowiedzi, co daje „iluzję głębokiego myślenia”, a detektory treści generowanych przez AI zawodzą. - Nie można już mieć pewności co do autorstwa – zaznaczyła.
Dlatego – jej zdaniem – konieczne jest przejście z oceniania samego efektu na ocenianie procesu uczenia się. - Czas na włączenie studenta do tego procesu i dodanie oceny drogi dojścia do celu, refleksji i etycznego użycia AI jako elementu procesu poznawczego – powiedziała.
W praktyce może to oznaczać m.in. prowadzenie przez studentów dokumentacji pracy z AI, dzienników decyzji czy refleksyjnych podsumowań.
Ekspertka podkreśliła również, że rola nauczyciela w erze AI ulega zmianie. - Nauczyciel przestaje być dostarczycielem informacji (…) a staje się mentorem, projektantem doświadczeń edukacyjnych, przewodnikiem w świecie (dez)informacji – powiedziała.
Jak zaznaczyła, mimo automatyzacji wielu zadań rola relacyjna nauczyciela pozostaje kluczowa. - GenAI może zastąpić część naszej pracy, ale nie zastąpi roli relacyjnej, która jest związana z budowaniem motywacji, procesu grupowego, poczucia bezpieczeństwa i przynależności – podkreśliła.
Politechnika Gdańska od kilku lat przygotowuje studentów i kadrę do pracy z generatywną AI. Uczelnia opracowała strategię „EDUxAI”, która ma wspierać odpowiedzialne i etyczne wykorzystanie technologii w edukacji.
- Kluczowe dla nas jest to, by nie tylko uczyć narzędzi, ale przede wszystkim uczyć myślenia o AI, odpowiedzialnego wykorzystania i umiejętności decydowania czy i kiedy użyć technologii – wyjaśniła prof. Mytnik.
W ramach działań uczelnia prowadzi szkolenia, kursy specjalistyczne oraz program przygotowujący nauczycieli do nowych ról w edukacji. Studenci mogą natomiast korzystać z jasnych zasad dotyczących wykorzystania AI przy pisaniu prac.
- Uczelnia nie zabrania korzystania z narzędzi AI w procesie uczenia się czy pisania pracy dyplomowej, ale jednocześnie mówimy o etyce, zagrożeniach i formach wsparcia – zaznaczyła badaczka.
Jej zdaniem kluczowe kompetencje to krytyczne myślenie – czy AI ma rację, umiejętność zadawania pytań czy metapoznanie.
- AI wzmacnia ekspertów. Trzeba mieć wiedzę własną, by z tego wzmocnienia AI skorzystać – podsumowała. (PAP)
pm/ agt/
Brak komentarza, Twój może być pierwszy.
Użytkowniku, pamiętaj, że w Internecie nie jesteś anonimowy. Ponosisz odpowiedzialność za treści zamieszczane na portalu myszkow365.pl. Dodanie opinii jest równoznaczne z akceptacją Regulaminu portalu. Jeśli zauważyłeś, że któraś opinia łamie prawo lub dobry obyczaj - powiadom nas [email protected] lub użyj przycisku Zgłoś komentarz
Rekordowy budżet na 2026 rok. Miasto i Gmina Żarki
8 mln długu jest się czy chwalić.
Bbb
22:46, 2025-12-24
Ostrzeżenie pierwszego stopnia dla miejscowości Myszków
alert typu: ALERT PIERWSZEGO STOPNIA!!! w nocy bedzie ciemno
mefiu
22:25, 2025-05-02
Barbara Nowacka: pielęgnowanie pamięci o Holokauście je
katastrofa
katastrofa
00:10, 2025-01-28
Paweł Bacior – Młodzieżowy Radny, który działa lokalnie
Fantastycznie działasz, mocno wierzę, że zajdziesz daleko, bo takich ludzi jak Ty bardzo potrzeba w regionie. Powodzenia młody człowieku :)
Jagoda
15:34, 2024-11-25