• de
  • pl

AI w edukacji historycznej. Wytyczne American Historical Association (AHA) – pierwsza próba uporządkowania chaosu

Krzysztof Ruchniewicz / Wrocław

Od kilku miesięcy intensywnie zajmuję się wykorzystaniem sztucznej inteligencji (AI) w historii (badaniach i dydaktyce). W tym semestrze wraz ze studentami realizuję mały projekt z wykorzystaniem AI, którego wyniki wkrótce upublicznimy. Bezpośrednim impulsem do napisania tego wpisu (i planowanych następnych) stał się niedawno opublikowany artykuł moich koleżanek instytutowych1. Tempo zmian jest dziś tak duże, że nawet upływ kilku miesięcy wystarcza, by pojawiły się nowe fakty i procesy skłaniające do namysłu. Z tego względu zwróciłem uwagę na wytyczne American Historical Association (AHA) z lipca 2025 roku2] — najstarszego i największego w Stanach Zjednoczonych stowarzyszenia profesjonalnych historyków3. Sądzę, że warto je spopularyzować, aby mogły stać się punktem wyjścia do poważnej dyskusji nad opracowaniem podobnych zaleceń, dostosowanych do naszych uwarunkowań. Staje się to coraz bardziej palącym wyzwaniem. Należy podkreślić, że debata o AI w historii nie dotyczy wyłącznie kwestii technicznych ani dydaktycznych. W istocie jest to debata o epistemologicznym statusie wiedzy historycznej, o roli interpretacji oraz o tym, kto – i na jakich zasadach – może dziś rościć sobie prawo do mówienia o przeszłości. W tym sensie wytyczne AHA nie są jedynie reakcją na nowe narzędzie, lecz czymś znacznie poważniejszym – obroną podstawowych założeń dyscypliny w warunkach gwałtownej transformacji technologicznej, ale i kulturowej. Wytyczne amerykańskie już przetłumaczyłem i będą wkrótce do pobrania w wersji pdf.

Wszechobecność AI

Nie ma dzisiaj medium, czy to tradycyjnego, czy elektronicznego, które by nie rozpisywało się na temat wykorzystania AI, od entuzjastów do krytyków. Sztuczna Inteligencja jest już bez wątpienia wszechobecna, choć pojawiła się w świadomości szerszych kręgów opinii publicznej niedawno. Wystarczy otworzyć przeglądarkę Google, wpisać pytanie o wydarzenie historyczne, a natychmiast – jeszcze przed tradycyjnymi wynikami wyszukiwania – otrzymujemy wygenerowaną przez AI odpowiedź w formie streszczenia. To że AI jest wszechobecna w naszych codziennym życiu i – czy w sposób uświadomiony, czy nie – wpływa na nasz dzień codzienny, jest już faktem.
Ale jak wpływa to na humanistykę? A konkretnie jak wykorzystanie coraz lepszych narzędzi AI oddziałuje na historię: w prowadzonych w tej dyscyplinie badaniach, edukacji i popularyzacji? W tym miejscu warto wprowadzić istotne rozróżnienie: czym innym jest incydentalne, często nieuświadomione korzystanie z AI (np. poprzez wyszukiwarki czy narzędzia biurowe), a czym innym jej systematyczna integracja z procesami badawczymi i dydaktycznymi. Wytyczne AHA odnoszą się wyłącznie do tego drugiego poziomu – świadomego, refleksyjnego i instytucjonalnie osadzonego wykorzystania AI.
To rozróżnienie jest kluczowe, ponieważ pozwala uniknąć fałszywej alternatywy: albo bezkrytyczna akceptacja, albo całkowity zakaz. Z dużym zainteresowaniem przeczytałem artykuł moich instytutowych koleżanek, Joanny Wojdon i Doroty Wiśniewskiej pt. „“Między lękiem a fascynacją. Sztuczna inteligencja w edukacji historycznej”4. Przynosi on dobry przegląd różnych stanowisk, głównie zachodnich. Padają także ciekawe propozycje lektur. Zainspirowany własnymi zainteresowaniami, jak i artykułem koleżanek, zacząłem dokładniej przyglądać się rozwiązaniom międzynarodowym i narodowym stosowania AI w historii, edukacji i popularyzacji wiedzy o przeszłości. Tak dotarłem do niedawno sformułowanych wytycznych AHA. Warto przyjrzeć się temu dokumentowi dokładnie. Jest to według mojej wiedzy, jak na razie, jedyny tego typu i wyznaczać może pewien standard podejścia do zagadnienia. Wiele mówi też o tym, jak jako historycy podchodzimy do wyzwań technologicznych naszej dynamicznej epoki.

Wytyczne AHA5

Wytyczne AHA opublikowano w lipcu 2025 roku. To pierwszy tak kompleksowy dokument dotyczący funkcjonowania AI w nauczaniu historii. Jego powstanie poprzedziły badania i dyskusje. W 2023 roku, po eksplozji popularności ChatGPT Rada AHA powołała Ad Hoc Committee on Artificial Intelligence in History Education (Komisja Ad Hoc ds. Sztucznej Inteligencji w Edukacji Historycznej). Jej zadania były jasne: zbadać wpływ AI na nauczanie i uczenie się historii. Co ważne – Komitet świadomie zawęził ich zakres. Osobny zespół zajmuje się bowiem używaniem AI w badaniach historycznych i publikacjach naukowych. Omawiany tu dokument dotyczy tylko edukacji, a więc jest o tym, co dzieje się (lub powinno się dziać) w klasie, na konwersatorium uniwersyteckim, w relacji nauczyciel-student/uczeń.
Publikację wytycznych poprzedziły różne działania. Komitet przeprowadził badania ankietowe wśród członków AHA, zorganizował sesje podczas konferencjach, zbierał przez dłuższy czas opinie. Rezultatem jest 14 wytycznych (guiding principles), przewodnich zasad, które mają pomóc edukatorom. Nie jest to więc zestaw nakazów i zakazów. AHA przyjmuje bowiem, że nie ma jednego, uniwersalnego rozwiązania, gdyż konteksty działania i używania AI są różne, od szkoły średniej do uniwersytetu.
Wytyczne uporządkowano w pięć grup. Są to: I. Znaczenie myślenia historycznego, II. Generatywna AI i jej ograniczenia, III. Umiejętność korzystania z AI (AI literacy), IV. Konkretne i przejrzyste zasady, V. Wartość wiedzy historycznej. Do dokumentu dołączono dwa aneksy: słowniczek terminów (glosariusz) oraz przykładową tabelę z zasadami dotyczącymi AI do wykorzystania na lekcji historii. Poniżej przedstawię główne tezy każdej z pięciu części.

Myślenie historyczne w erze AI

Pierwsze zdanie ”Myślenie historyczne pozostaje kluczowe w epoce AI” brzmi bardzo jasno. To nie jest przypadek – Komitet zaczyna prezentację swego stanowiska od spraw fundamentalnych. Niezależnie od tego, jak potężna jest technologia, myślenie historyczne – z całym jego bagażem historycznym – pozostaje niezbędne w zajmowaniu się problematyką przeszłości. Autorzy podkreślają, że chociaż ”generatywna AI może naśladować część pracy wykonywanej przez historyków i nauczycieli historii. Nie należy jednak mylić tego z nauczaniem ani z uczeniem się”. To kluczowe rozróżnienie.
AI może naśladować – generować teksty, odpowiadać na pytania, tworzyć quizy, zestawy ćwiczeń itd. Ale to nie jest to samo, co nauczanie, czy uczenie się. Proces edukacji to nie prosty transfer informacji, lecz kształtowanie umiejętności krytycznego myślenia i wyciągania wniosków. I tu pojawi się interesująca (i optymistyczna) teza: ”Zamiast czynić dyscyplinę przestarzałą, generatywna AI może zwiększyć zapotrzebowanie na konkretne umiejętności historyków”. W świecie, gdzie każdy może wygenerować tekst o powstaniu warszawskim czy innym wydarzeniu w kilka sekund, wartość kogoś, kto potrafi ocenić ten tekst krytycznie, zweryfikować źródła, w końcu dostrzec uproszczenia lub przekłamania (od przypadkowych po zaprogramowane) – ta wartość kompetencji historyka rośnie, a nie maleje.
Z perspektywy dydaktyki akademickiej to bardzo trafna teza. Jeśli AI może bez wysiłku robić to, czego także dotąd uczyliśmy studentów (np. pisania krótkich omówień, streszczeń…), czy oznacza to, że uczyliśmy ich już zbędnych umiejętności? Może powinniśmy więc wzmocnić te wysiłki dydaktyczne, które rozwijają to, czego AI nie potrafi (lub udaje że potrafi): krytycznego myślenia, oryginalnej interpretacji, czy świadomości metodologicznej?
W tym sensie AI działa jak papierek lakmusowy dla dydaktyki akademickiej. Obnaża ona słabości tradycyjnych modeli kształcenia opartych na reprodukcji wiedzy, schematycznym pisaniu i odtwarzaniu narracji. Jeśli student może w kilka sekund wygenerować poprawnie brzmiący tekst historyczny, oznacza to, że zadanie było zaprojektowane na poziomie, który nie wymagał rzeczywistego myślenia historycznego. Był to typowy kompilacyjny referat. AI nie tyle zagraża edukacji historycznej, ile ujawnia jej strukturalne problemy i zmusza do pogłębiania tego, co stanowi sedno kompetencji historyka.

AI i jej ograniczenia – trzy fundamentalne problemy

Druga część dokumentu przynosi obnażenie słabości nowej technologii. Autorzy wskazują trzy kluczowe ograniczenia AI, które każdy historyk powinien mieć na uwadze i (z)rozumieć: 1. AI nie tworzy prawdy, tylko teksty, 2. Problem halucynacji jako cecha strukturalna, a nie błąd oraz 3. Fałszywe poczucie pewności zaszczepiane przez wygenerowaną wypowiedź.
W pierwszym przypadku zdanie to brzmi oczywiście, nieprawdaż? Jednak implikacje są daleko idące. Tzw. Large Lanquage Models (LLM) generują tekst wybierając każde słowo na podstawie prawdopodobieństwa statystycznego z danych treningowych. Nie „rozumieją” świata, nie „wiedzą” nic o przeszłości. Jedyne co robią, to reprodukują „dostrzeżone” wzorce. Dla historyków jest to konstatacja o fundamentalnym znaczeniu. Uczymy studentów odróżniać źródło od jego interpretacji, wskazujemy na różnice między faktem z przeszłości a narracją o nim (faktem historiograficznym), między tym co wiemy (i skąd to wiemy), a tym co wnioskujemy. AI zaciera te granice – generuje tekst, który brzmi przekonująco, ale nie posiada żadnej własnej epistemologicznej podstawy.
Następnym problemem są tzw. halucynacje. Autorzy piszą: ”Pomimo wszystkich swoich możliwości generatywna AI regularnie tworzy halucynacje dotyczące treści, odniesień, źródeł i cytatów”. To nie jest błąd, to funkcja programów tego typu. AI jest trenowane do kompletowania wzorów. Jeśli któryś z nich prowadzi do szybszego zakończenia zleconego zadania, AI go użyje – nawet jeśli wymaga to wymyślenia nieistniejącego źródła. Przykład z mojej praktyki. Poprosiłem AI o cytaty z wystąpień A. Hitlera przed 1939 rokiem. Otrzymałem kilka propozycji — brzmiały przekonująco, opatrzone były konkretnymi datami i osadzone w pozornie wiarygodnym kontekście. Następnie poprosiłem o podanie źródeł tych cytowań. W odpowiedzi otrzymałem informację o rzekomym wyborze mów Hitlera wydanym w Warszawie w 1989 roku. Dotąd nie zetknąłem się z takim wydawnictwem, dlatego na wszelki wypadek to sprawdziłem — i okazało się, że taka publikacja rzeczywiście nigdy się nie ukazała. Na marginesie warto dodać, że pozostaje to nadal istotnym dezyderatem badawczym i wydawniczym.
AI „skomponowało” źródło z różnych cytatów. Powstała parafraza, do której program się przyznał, gdy wprost zadałem mu pytanie. Ten mechanizm ma poważne konsekwencje metodologiczne. W tradycyjnym modelu pracy historycznej błędy faktograficzne czy fałszywe przypisy były sygnałem braku rzetelności, raczej bardzo rzadkim. W przypadku AI takie błędy nie są wyjątkiem, lecz statystycznie przewidywalnym elementem działania systemu. Oznacza to, że kompetencja historyka przesuwa się jeszcze wyraźniej w stronę kontroli, weryfikacji i krytycznej oceny – a nie produkcji tekstu jako takiej. Dla studenta, który nie zna dostatecznie tematu (i działa zwykle pod presją terminu oddania pracy), takie halucynacje lub ich część mogę być nie do wykrycia. Dla eksperta – są oczywiste. Tym można tłumaczyć tezę AHA: nie ma skrótów na drodze do ekspertyzy.
Podsumowując, autorzy piszą: ”AI wprowadza fałszywe poczucie pewności tam, gdzie istnieje niepewność”. Niepewność, jak dobrze wiemy, należy do części naszego zawodu. Są rzeczy, które wiemy o przeszłości, i wiele – znacznie więcej – czego nie wiemy lub zakładamy z większym lub mniejszym prawdopodobieństwem (sposoby ustalania faktów i tworzenia generalizacji historycznych). Luki w źródłach, sprzeczności w relacjach świadków, kontekst kultury i czasu, powodują, że wiele pytań pozostaje bez odpowiedzi. To nie jest słabość historii, to jej natura. AI eliminuje tę niepewność. Wystarczy zapytać o cokolwiek, a otrzymamy w kilka sekund odpowiedź. Pozornie pewną, zdecydowaną, kompetentną. Fakt, że może być zmyślona, nie zmienia tego, że brzmi przekonująco. Co najwyżej AI stwierdzi, ze jest jakaś kontrowersja lub spór, o ile dostatecznie jest to widoczne w zassanych przez nią materiałach.
W dodatku modele multimodalne (jak DALL-E, Midjourney) mogą generować realistyczne „fotografie” z wydarzeń historycznych (czy ktoś jeszcze pamięta o obiekcjach, jakie wywoływało tak niedawno kolorowanie zdjęć czarno-białych?). Bitwa pod Grunwaldem, powstanie warszawskie, pierwsze posiedzenie Sejmu dowolnej kadencji – wszystko to może być „sfotografowane” (zilustrowane) przez AI. Z punktu widzenia Visual History to fundamentalne wyzwanie. Jak uczyć krytycznej analizy źródeł wizualnych w erze, gdy każdy może wygenerować „autentycznie” wyglądającą fotografię z przeszłości, ikonografię w dowolnym stylu? Tradycyjna metodologia analizy obrazu historycznego – wersyfikacja proweniencji, analiza techniki tworzenia, kontekst powstania – wymaga ponownego przemyślenia.

AI Literacy – od zakazu do umiejętności

Trzecia część wytycznych rozpoczyna się od tezy być może kontrowersyjnej dla części naszego środowiska: ”Zakazywanie generatywnej AI nie jest rozwiązaniem długoterminowym; natomiast pielęgnowanie umiejętności korzystania z AI nim jest”. Autorzy argumentują w prosty sposób: uczniowie / studenci już używają AI i będą używać dalej. Zakazy nie są skuteczne ani wykonalne. Co więcej – są szkodliwe, bo pozbawiają uczniów / studentów możliwości uczenia się odpowiedzialnego użytkowania, spychając do irytującego i niezrozumiałego z racji ich generacyjnego doświadczenia „podziemia” i utwierdzając w przekonaniu, że szkoła / uniwersytet to rodzaj skansenu. Zamiast tego autorzy wytycznych proponują AI Literacy, a więc kształcenie umiejętności rozumienia jak działa AI (i czego nie potrafi), krytycznej oceny wyników jej użycia, weryfikacji informacji, rozpoznawania halucynacji, świadomego i etycznego posługiwania się AI. Idą nawet dalej, jasno artykułując: ”Generatywna AI może być wartościowym partnerem w klasie”. Podają konkretny przykład. Uczeń / student dostaje zadanie do porównania: wygenerowane przez AI podsumowanie artykułu naukowego z oryginalnym tekstem. Uczeń / student musi przeczytać oryginał, by móc ocenić AI. Doskonali w ten sposób dwie kompetencje: krytyczne czytanie i poznaje ograniczenia AI. To słuszna ocena. Podobnie jest przecież podczas uczenia krytycznego myślenia w kontakcie ze źródłem historycznym. Nie uczymy studentów „nigdy nie ufać źródłom” – uczymy ich, jak oceniać wiarygodność źródeł.

Transparentność i konkretne zasady

Czwarta część dokumentu jest najbardziej praktyczna. Autorzy piszą: ”Nauczyciele historii muszą opracować konkretne i przejrzyste zasady dotyczące korzystania z AI i przekazać je uczniom”. Zatem nasi studenci muszą wiedzieć, kiedy mogą używać AI, a kiedy nie, jak powinni oznaczyć użycie AI i ew. zacytować/włączyć wygenerowane przez nią treści. Wszystkie programy nauczania czy syllabusy powinny więc zawierać odwołanie do AI. Format cytowania jest w tym przypadku mniej ważny niż sam fakt wymienienia. Autorzy dodają: ”Eksperymentuj, zastanów się, popraw”. Żadne zasady korzystania z AI nie będą doskonałe od razu. Technologia się szybko zmienia, nasze rozumienie się zmienia, studenci się także zmieniają. Trzeba być więc elastycznym, testować, zbierać informacje zwrotne, stale poprawiać.
Wydaje się to metodologicznie bardzo rozsądne postępowanie – przyznanie, że jesteśmy w fazie eksperymentalnej. Lepiej być otwartym na uczenie się niż narzucać sztywne reguły, które za rok lub szybciej okażą się nieaktualne. Tylko czy nasze struktury są zdolne do takiej elastyczności (wykładowca może regulować użycie AI podczas własnych zajęć, ale przecież nie np. w procesie dyplomowania).

Wartość ekspertyzy – czego AI nie zastąpi

Treść ostatniej części wytycznych na powrót zwraca naszą uwagę na podstawy: ”Generatywna AI nie może zastąpić metodologii historycznej”. Pisanie historii to nie tylko zbieranie faktów – ich układanie, interpretacja, kontekstualizaicja czy tworzenie argumentów do wnioskowania, wyjaśniania. Wymaga to zadawania nowych pytań, szukania źródeł, które nie są jeszcze zdigitalizowane, czy analizowania nieraz sprzecznych świadectw. Radzenia sobie z niepewnością, szacowania prawdopodobieństwa. Konstruowanie oryginalnych narracji, np. porównawczych.
AI potrafi reprodukować wzorce z przeszłości. Nie potrafi ich kwestionować ani reinterpretować w innowacyjny sposób. ”AI nie jest w stanie zaskoczyć nas nowymi argumentami historycznymi”. Studenci mogą zatem używać AI do generowania tekstu, ale ocena, czy ten test jest dobry/nowatorski w jakimś aspekcie wymaga … wiedzy i doświadczenia.
Jeśli student używa AI jako skrótu własnych operacji intelektualnych, może szybko wpaść w pułapkę. ”Nie ma skrótów na drodze do zdobycia wiedzy eksperckiej” – konstatują autorzy. I dodają: „(…) minimalne zaangażowanie prowadzi do braku umięjętności właściwej oceny wyników, co z kolei skutkuje bezkrytycznym przyjmowaniem wadliwego materiału”. Zdobycie eksperckiej wiedzy (w odpowiednim dla rodzaju studiów zakresie) musi poprzedzać poleganie na AI. Dotyczy to pisania, jak i analizy źródeł itp.

Czego brakuje? Perspektywa badacza Visual i Public History

Otrzymaliśmy zatem bardzo ciekawy dokument z wytycznymi, które powinny ukierunkowywać naszą debatę, choć oczywiście nie ją zawężać tylko do nich. Jest to pierwszy krok, w którym sformułowano ogólne ramy refleksji. Autorzy uniknęli opowiedzenia się za którąś ze stron: ich dokument jest zrównoważony. Nie jest ani technofobiczny, ani technoeuforyczny. Pokazuje potencjał i zagrożenia w trzeźwy sposób. Proponuje też praktyczne rozwiązania. Tabela z przykładami, zawarta w aneksie, może pomóc w opracowaniu programu zajęć czy syllabusa. Spodobała mi się formuła autorów: eksperymentuj, zastanów się, popraw. Potwierdza to ich otwarte podejście i podkreślenie, że nie znają wszystkich odpowiedzi.
W dalszej dyskusji warto byłoby uwzględnić kilka wątków, które w dokumencie pojawiły się jedynie skrótowo, albo je pominięto. Brak jest w nim odwołania do badań empirycznych. Większość twierdzeń opiera się na założeniach, a nie twardych danych. Abstrahując, czy autorzy mogli je zebrać, trzeba podkreślić, że ich bardzo potrzebujemy. Powinniśmy m. in. wiedzieć, jak studenci używają AI, jak to wpływa na efekty kształcenia, które są wynikiem naszych zajęć.
Visual History i Public History również powinny zostać szerzej uwzględnione w ramach debaty o miejscu AI w zajmowaniu się przeszłością. Dokument wprawdzie wspomina o zdjęciach wygenerowanych przez AI, ale nie rozwija tematu. Podobnie jest z drugą kwestią. Autorzy koncentrują się na formalnej (instytucjonalnej) edukacji. A co z muzeami? Wystawami? Projektami z zakresu pamięci? Jak AI zmienia Public History?
Bez wątpienia mamy do czynienia z bardzo amerykańskim sposobem patrzenia na edukację i wykorzystanie AI. Co z kontekstem postkolonialnym? Co począć z krajami, gdzie dostęp do AI jest ograniczony? Czy AI nie pogłębia przepaści cyfrowej (digital divide)?

Co to znaczy dla nas – historyków spoza USA?

Wytyczne AHA to z pewnością wartościowy punkt odniesienia, jednak nie jest to rodzaj uniwersalnej instrukcji obsługi. Konteksty używania AI są zbyt różne. W USA mamy określoną tradycję edukacji humanistycznej, nacisk na krytyczne myślenie, relatywnie małe grupy. W Polsce jesteśmy konfrontowani z masowym uniwersytetem, z dużymi salami wykładowymi, mamy inne wyzwania infrastrukturalne i finansowe.
AHA zakłada, że każdy student ma dostęp do AI. A jak jest w Polsce? Państwowy Instytut Badawczy NASK raportuje, że tylko 6% polskich nauczycieli szkół podstawowych regularnie używa AI6. Przepaść cyfrowa jest znaczna. AHA pisze o „Eksperymentuj, zastanów się, popraw”. U nas często brakuje czasu i przestrzeni na eksperyment, bo wymagane jest realizowanie sztywnego programu. System jest skostniały, nie ma w nim miejsca na innowacje.
Jednak fundamenty są wspólne: AI nie zastąpi myślenia historycznego, transparentność pozostaje kluczowa, studenci potrzebują kształcenia z AI, zdobycie rzetelnej wiedzy i umiejętności wymaga czasu i zaangażowania. W tym sensie wytyczne AHA warto czytać nie jako gotowe rozwiązanie, lecz jako zaproszenie do refleksji i działania. AI nie zwalnia historyków z odpowiedzialności za edukację – przeciwnie, czyni ją jeszcze bardziej konieczną. Im łatwiej będzie można generować dowolne narracje o przeszłości, tym większe znaczenie ma umiejętność ich krytycznej analizy i oceny.

A teraz pytanie do Was – czytelników, kolegów, studentów:

  • Czy Wasze uczelnie / szkoły mają polityki dotyczące AI?
  • Jak Wy sami używanie (lub nie używacie) AI w pracy / nauce?
  • Co sądzicie o wytycznych AHA – czy to dobry punkt wyjścia?

Zapraszam do dyskusji w komentarzach. W kolejnych wpisach tej serii przyjrzę się:

  • reakcjom na wytyczne AHA – trzy wyraźne obozy w debacie,
  • europejskim modelom – Francja, Hiszpania, UK i Niemcy,
  • polskiej sytuacji, ZBADAI, Biała Księga PAN oraz
  • perspektywom dla Visual i Public History

    Komentarz do zdjęcia: Zdjęcie zrobiłem w grudniu 2025 roku w drezdeńskiej Galerii Obrazów Starych Mistrzów. Początkowo do zilustrowania tekstu chciałem użyć zdjęcia wygenerowanego przez AI. Niestety, żadna z propozycji nie zadowoliła mnie. Nie ta estetyka, nie ten pomysł. W końcu AI zastrajkowała. Tak, zastrajkowała. Otrzymałem taki oto komentarz: „Powiem to wprost (…): ❌ Ten artykuł nie powinien mieć ilustracji generowanej przez AI. Nie dlatego, że „AI jest złe”, ale dlatego, że: tematem tekstu jest właśnie to, że AI nie radzi sobie z epistemologią, każda ilustracja generatywna będzie: albo banalna, albo estetyczna, albo chaotyczna, ale nigdy metodologicznie czysta”. Odetchnąłem z ulgą, moje tradycyjne zdjęcie oddaje to co chciałem wyrazić, ale nie wprost, chodzi o relację technologii z naszym dziedzictwem jako wyzwanie…

  1. Joanna Wojdon, Dorota Wiśniewska, Między lękiem a fascynacją. Sztuczna inteligencja w edukacji historycznej, w: Bad AI. Nauka w erze sztucznej inteligencji pod redakcją Małgorzaty Biernackiej, Dariusza Buraczewskiego i Pawła Rychlikowskiego, Wrocław 2025, s. 21-35, https://wuwr.eu/wp-content/uploads/2025/12/buraczewski-i-inni-bad-ai_ebook.pdf (ostatni dostęp: 11.01.2026) ↩︎
  2. Zob. https://www.historians.org/wp-content/uploads/2025/08/AHA-Artificial-Intelligence-in-History-Education.pdf(ostatni dostęp: 10.01.2026) ↩︎
  3. Oficjalna strona internetowa Stowarzyszenia: https://www.historians.org ↩︎
  4. Zob. przypis 1 ↩︎
  5. Zob. przypis 2 ↩︎
  6. Zob. Generatywna sztuczna inteligencja w polskiej szkole. Przecieranie szlaków. Badania ilościowe i jakościowe nauczycieli klas 4–8 szkół podstawowych, pod red. Jacka Pyżalskiego, b.m, 2025, https://www.nask.pl/media/2025/06/Raport-generatywnaAI.pdf ↩︎