Akt o sztucznej inteligencji wskazuje dzieci jako grupę szczególnie podatną na zagrożenia wynikające ze stosowania AI. Jakie prawne narzędzia AI Act przewiduje dla ochrony dzieci? Na potrzeby niniejszego artykułu omówiono, poza AI Act, regulaminy popularnych narzędzi AI czy standardy ochrony małoletnich obowiązujące w szkołach.
Wejście w życie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (dalej: akt o sztucznej inteligencji, AI Act), deklarowanego jako pierwszy akt prawny regulujący sztuczną inteligencję (z ang. Artificial Intelligence, AI), przyczyniło się do powstania wielu wyzwań dla ochrony dzieci przed zagrożeniami wynikającymi ze stosowania AI. Wykorzystywanie AI przez dzieci obejmuje wiele aspektów ich życia, począwszy od zastosowania jej do celów osobistych, kończąc na edukacji (np. do wykonania zadania domowego). Korzystanie z niektórych narzędzi AI przez dzieci jest objęte licznymi ograniczeniami, przede wszystkim wiekowymi i koniecznością uzyskania zgody rodzica lub opiekuna prawnego. AI Act przejawia bardzo rozległe związki z przepisami dotyczącymi ochrony dzieci, DSA, DMA i rodo. Ma to swoje reperkusje w sposobach dostosowania sposobu używania AI.
Praktyki zakazane – co obejmują?
W art. 5 AI Act zostały szczegółowo opisane praktyki zakazane.
Praktyki zakazane mogą w różnym stopniu dotyczyć dzieci, zwłaszcza te obejmujące dyskryminację społeczną i wykorzystywanie słabości.
Wykorzystywanie słabości dzieci w modelach AI ma swoje konsekwencje we wpływaniu na ich zachowania. Dzieci są wyjątkowo wrażliwe na komunikaty wysyłane za pośrednictwem narzędzi AI [1]. Może to nastąpić poprzez prompting sugerujący wykorzystanie słabości w modelach konwersacyjnych, użycie zdjęć dzieci w celu tworzenia deepfake’ów, treści fałszujących głos dzieci w celu wywołania cierpienia rodziców. Treści te powinny być wykrywane przez dostawcę modelu AI lub dostawcę usług cyfrowych i usuwane [2].
Opieranie scoringu społecznego na wszelkich cechach dzieci i ich rodziców lub opiekunów może prowadzić do ich dyskryminacji w życiu społecznym, np. problemów w kwalifikacji do świadczeń społecznych na rzecz dzieci, problemów w kwalifikacji do szkół czy realizacji obowiązku szkolnego. Dedukcja na podstawie emocji w celach medycznych bądź edukacyjnych ma negatywne konsekwencje dla zdrowia czy psychiki dziecka, co może doprowadzić do powstawania problemów u dzieci [3]. Takie systemy są zakazane.
Jeśli chodzi o untargeted scraping, stosowany przez LLMs (z ang. large language model, czyli duże modele uczenia maszynowego) [4], może on skutkować m.in. tworzeniem deepfake’ów, których powielanie może przyczynić się do negatywnych konsekwencji dla zdrowia i życia dziecka.
Szczególne ryzyko wynikające ze stosowania praktyk zakazanych wiąże się z tym, że dostawcy narzędzi AI wyłączają całkowicie lub ograniczają do symbolicznej kwoty (100 dolarów lub kwota wpłacona w ciągu 6 ostatnich miesięcy) swoją odpowiedzialność za szkody wynikłe ze stosowania praktyk zakazanych. Tego rodzaju praktyki handlowe są przedmiotem powszechnej krytyki ze strony opinii publicznej, prasy oraz organów zajmujących się ochroną dzieci, co wiąże się z licznymi sytuacjami, w których dzieci odgrywały rolę pokrzywdzonych przez zakazane praktyki manipulacyjne. Brak stosowania filtrów czy odpowiedniego treningu modeli AI przyczynia się do tego, że wpisywanie treści do przetworzenia przez LLM może objąć również treści nielegalne i szkodliwe dla dzieci. Ograniczanie umowne odpowiedzialności ma wyjątkowe konsekwencje dla rodziców lub opiekunów prawnych dzieci, którzy nie są świadomi tego, jakie roszczenia mogą podnieść względem dostawcy modelu, a także jak skutecznie mogą ograniczyć dochodzenie ewentualnych roszczeń. Dla dostawcy systemu AI lub podmiotu stosującego AI naruszenie przepisów dotyczące praktyk zakazanych skutkuje bardzo wysokimi karami pieniężnymi w wysokości 35 mln euro albo 7% całkowitego rocznego obrotu przedsiębiorstwa w danym roku obrotowym (art. 99 AI Act).
Modele AI wysokiego ryzyka w edukacji – sposoby ochrony
Modele AI stosowane przez placówki dla dzieci zostały zaklasyfikowane w Załączniku III do AI Act jako modele wysokiego ryzyka. Są to:
- modele stosowane w rekrutacji do placówek edukacyjnych, klasyfikowania uczniów, oceny osiągnięć edukacyjnych uczniów;
- modele stosowane do oceny emocji;
- modele stosowane wobec dzieci w medycynie do oceny schorzeń;
- modele stosowane do kwalifikacji do świadczeń społecznych.
Modele te są szczególnie Modele te są szczególnie podatne na praktyki zakazane, dyskryminowanie dzieci z uwagi na emocje lub na osiągnięcia i dyskryminację społeczną, co zostało potwierdzone w trakcie prac nad AI Act. Praktyki te mogą też przyczynić się do zwiększonego zainteresowania niektórymi grupami dzieci ze strony stosującego, zwłaszcza wspierając się przygotowanym modelowym rozwiązaniem [5]. Dlatego zapadła decyzja o nałożeniu na ich dostawców i podmioty stosujące szeregu obowiązków. Podstawowym wyłączeniem z art. 6 AI Act, pozwalającym na stosowanie modeli wysokiego ryzyka takiego rodzaju, jest wykonanie ściśle określonego zadania proceduralnego, które usprawni pracę nauczycieli lub lekarzy. Zadanie to może zostać określone kodem w odpowiednim języku programowania (np. Python, C++, Java) i zawierać odesłania do wybranych tarcz (często dostępnych w ramach licencji otwartego oprogramowania).
Modele polegające na klasyfikacji dzieci w rekrutacji nie mogą zawierać dyskryminujących mechanizmów przetwarzania. Grozi to zmniejszeniem równości szans. Zamiast tego można stosować tarcze blokujące taki mechanizm. Modele polegające na nadzorze dzieci podczas egzaminów odpowiednio ukształtowane mogą zmniejszyć nakład czasu nauczyciela spędzanego na pilnowaniu uczniów. Mogą także wykrywać niedozwolone zachowania, które skutkują niezaliczaniem testów. Podkreśla się, że taki nadzór z AI mógłby ograniczyć przypadki łamania zasad w szkołach.
Jak rodzice mogą dochodzić roszczeń z udziałem dostawcy modelu?
Dochodzenie roszczeń z tytułu szkody wyrządzonej przez AI nie musi być utrudnione dla dzieci i ich przedstawicieli ustawowych. Unijny prawodawca rozważał wprowadzenie AILD (z ang. AI Liability Directive, czyli dyrektywa w sprawie odpowiedzialności za AI) [6]. Jest to dyrektywa oferująca roszczenia nakazowe i zakazowe wobec dostawców AI, oparte na rozwiązaniach bezpieczeństwa produktu dostępnych w uchylonej dyrektywie PLD i rozwiązaniach dowodowych (wyjawienie środków dowodowych) typowych dla spraw własności intelektualnej [7]. W projekcie tej dyrektywy przewidziano system domniemań związku przyczynowego i winy dostawcy, które mogą być wzruszone w toku procesu. Motywy 6 i 11 projektowanej AILD odnoszą się do zasad odpowiedzialności deliktowej za produkt w przepisach krajowych, podobnie jak proponowane zasady odpowiedzialności za AI podkreślają brak uszczerbku dla krajowych przepisów materialnoprawnych. Państwa członkowskie miały zostać zobowiązane do dostosowania przepisów krajowych do nowych zasad odpowiedzialności za AI w ciągu 2 lat od wejścia w życie dyrektywy. Pojęcie powoda w art. 1 AILD precyzowało kategorie powoda jako osoby poszkodowanej poprzez output systemu AI lub reprezentanta grupy powodów, bez uszczerbku dla przepisów krajowych, które mogą przyznawać legitymację procesową reprezentantom dziecka. Nie zostało to explicite uregulowane.
Wycofanie AILD w lutym 2025 r. [8] utrudniło prace nad regulacją kwestii dochodzenia roszczeń za szkody spowodowane przez AI. Przepisy krajowe w tej materii, o ile powstaną, mogą niejednolicie regulować kwestię dochodzenia roszczeń przez AI za szkody na małoletnich spowodowane stosowaniem AI. Potencjalne rozwiązania tego problemu mogłyby opierać się na dotychczasowych projektowanych rozwiązaniach, ustanawiając odpowiedzialność dostawcy lub stosującego w rozumieniu AI Act. Sfera rozwiązań w odpowiedzialności deliktowej mogłaby zostać uregulowana w kc obok uregulowań odpowiedzialności za produkt z racji podobnej konstrukcji roszczeń z tytułu odpowiedzialności za produkt wadliwy.
Jeśli chodzi o reprezentację dziecka, nie obyłoby się bez zastosowania zasad reprezentacji dzieci w postępowaniu podobnych do zasad obowiązujących w prawie rodzinnym. Niemniej jednak możliwe sposoby dochodzenia roszczeń na podstawie m.in. zagranicznej praktyki mogą obejmować:
- Roszczenia cywilnoprawne – roszczenia deliktowe wytaczane przed sądem cywilnym (wg zasad właściwości sądów) względem dostawcy modelu AI [9], przedawniające się na zasadach ogólnych (art. 26 ustawy z dnia 4 lutego 2011 r. Prawa prywatnego międzynarodowego, w Polsce – art. 4421 kc).
- Wszczęcie postępowania administracyjnego przed organem krajowym bądź urzędem ds. AI z udziałem dostawcy narzędzi – na wniosek pokrzywdzonego. Wybranie tego sposobu dochodzenia roszczeń może nastąpić w dość odległej perspektywie czasowej (do 2027 r.), do czasu powołania organu krajowego.
- Podjęcie próby zgłoszenia materiału do dostawcy modelu AI – może nastąpić na zasadach przewidzianych w regulaminie przez zgłoszenie treści do usunięcia za pomocą funkcjonalności programu.
- Zgłoszenie treści do zespołu CERT zajmującego się reagowaniem na incydenty w przestrzeni cyfrowej – pomoże zapobiec stosowaniu podobnych praktyk.
Sposoby te nie są jedynymi możliwymi do zastosowania w dochodzeniu roszczeń z tytułu praktyk zakazanych. Podkreślane jest znaczenie edukowania dzieci w zakresie dopuszczalnego stosowania narzędzi AI. Wspomoże to odpowiedzialne korzystanie przez dzieci z AI, które będą bardziej świadomie wykorzystywać sztuczną inteligencję [10]. Należy przy tym zważać na konieczność weryfikacji poprawności outputu – modelom AI przypisuje się halucynacje czy manipulowanie treściami niepewnymi [11].
Jeśli chodzi zaś o roszczenia cywilnoprawne, objęte są one szczególnym ryzykiem wynikającym z kolizji przepisów prawa prywatnego międzynarodowego. Obejmuje ono zastosowanie przepisów regulujących właściwość sądów, która często jest zastrzeżona dla siedziby dostawcy modelu. Utrudnione jest dochodzenie tych roszczeń z racji ograniczenia odpowiedzialności do symbolicznej kwoty albo wyłączenia odpowiedzialności. Utrudni to dochodzenie dość wysokich roszczeń. Nie wykształciła się jeszcze polska praktyka sądowa w tym zakresie.
Jeśli chodzi o zgłoszenia do administratorów systemów GPAI, zespołów CERT i moderatorów serwisów społecznościowych, jest to rozwiązanie zaoszczędzające przejście całej drogi sądowej, lecz pozwoli uniknąć przyszłego wstawiania niektórych zakazanych treści. Jest ono bardziej wyrafinowane, gdyż portale społecznościowe coraz częściej publikują filtry potwierdzające, że treści zostały stworzone przez AI. Dostawcy systemów AI wprowadzają odpowiednie procedury zgłaszania treści i kont stworzonych w rzeczywistości przez osoby małoletnie (przyjęte według kraju pochodzenia osoby). Przykładowo:
- regulamin Suno – nie pozwala na zakładanie kont przez osoby poniżej 13 roku życia i pozostawia sobie dyskrecję co do uznania, że użytkownik jest w rzeczywistości osobą małoletnią [12];
- regulamin Midjourney – nie pozwala na zakładanie kont dla osoby małoletniej, ale jednocześnie deklaruje, że treści są bezpieczne dla dzieci w wieku od 13 roku życia [13], nie gwarantując ich całkowitego bezpieczeństwa;
- regulamin OpenAI (dostawca ChatGPT) – zezwala na korzystanie przez osoby małoletnie w wieku poniżej 13 roku życia i wskazuje zasady dopuszczalnego używania AI, w tym w sposób zakazujący przedstawiania outputu jako stworzonego przez człowieka [14].
Jak można uregulować AI?
Standardy ochrony małoletnich zostały wprowadzone zmianą ustawy o przeciwdziałaniu przemocy w rodzinie w 2024 r. Do ich wdrożenia zostały zobowiązane m.in. szkoły czy placówki opiekuńczo-wychowawcze [15]. Standardy te często określają sposób ochrony przed treściami szkodliwymi w sieci i sposób reagowania na incydenty w szkole. W standardach ochrony małoletnich pojawiają się sformułowania odnoszące się do treści szkodliwych w internecie, lecz brakuje odniesienia do treści tworzonych przez AI.
Brak explicite uregulowania tej kwestii w standardach ochrony małoletnich jest związany z odmiennymi podejściami do używania AI w szkołach. Ten dylemat jest szeroko dyskutowany. Polskie szkoły dotychczas nie wprowadziły polityk używania AI [16], podczas gdy w szkołach zagranicznych polityki takie istnieją, inspirowane ruchem K-12 [17]. Z jednej strony postuluje się zwiększenie wysiłków na rzecz edukacji dzieci w zakresie narzędzi AI, z drugiej – postulowany jest całkowity zakaz używania AI przez uczniów.
Edukowanie dzieci w zakresie etycznego korzystania z narzędzi AI jest uważane za szczególnie istotne z uwagi na wzrost znaczenia AI w edukacji [18], zwłaszcza poszerzającego się zastosowania sztucznej inteligencji w systemach zarządzania szkołą, nauczania języków obcych bądź nauczania programowania. Może ono przyjmować formy lekcji czy zadań poświęconych samodzielnemu wykorzystaniu AI połączonych z krytyczną oceną treści przez ucznia [19]. Opracowywane są zasady nauczania sztucznej inteligencji przez zwolenników pierwszej tezy, polegające na podstawach etycznego używania AI, m.in. wspieranie uczniów w osiągnięciach edukacyjnych, zgodność z regulacjami, wzmacnianie umiejętności weryfikacji promptów, utrzymanie relacji uczeń–nauczyciel i regularne przeprowadzanie audytów systemów AI. Zasady te są szerzej konkretyzowane, np.:
- w postaci zaleceń co do korzystania z AI wraz z propozycją jej zastosowania w sposób ułatwiający pracę z uczniami (ocenianie i informacja zwrotna dla uczniów, wspomaganie nauczania);
- przez ewaluację systemów AI i zabezpieczenie ich przed praktykami zakazanymi i szkodliwymi treściami [20] (eliminowanie szkodliwego oprogramowania, usuwanie zakazanych treści [21] czy praca pod nadzorem pracownika szkoły [22]);
- kładą akcent na ochronę prywatności (niepodawanie haseł i danych poufnych) [23].
Podejście oparte na zakazie stosowania narzędzi AI jest słusznie krytykowane. Zwolennicy tego stanowiska zakazują stosowania AI przez uczniów i nauczycieli, wprowadzając kary dyscyplinarne za jej stosowanie. Jako przyczynę często podaje się znaczne ryzyko plagiatu ze strony uczniów [24]. Fala takich zakazów wystąpiła po pojawieniu się ChatGPT w USA, po czym była odwrócona. Wówczas pojawiły się krytyczne opinie odnośnie do zakazywania takich narzędzi. Głosiły one, że dzieci nie są uczone odpowiedzialnego wykorzystywania AI [25]. Przeciwnie, często nauczyciele brali udział w tworzeniu bezpiecznych dla dzieci modeli AI wspierających naukę i przygotowywanie zadań domowych przez dzieci, czemu sprzyjały liczne badania naukowe, a także prowadzono eksperymenty zakładające udział AI jako nauczyciela [26].
Polskie szkoły i placówki opiekuńcze mogą w standardach ochrony małoletnich oprzeć się na zagranicznych doświadczeniach z AI, regulując kwestie używania AI przez dzieci i nauczycieli. Takie podejścia mogą przyczynić się do bezpieczniejszego korzystania ze sztucznej inteligencji przez dzieci i unikania sytuacji, w których może dojść do powstania szkody. Można zaproponować następujące podejścia:
- Zastrzeżenie, że dzieci mogą korzystać na szkolnych komputerach wyłącznie z narzędzi AI przeznaczonych dla dzieci [27], tym samym wskazując przykłady takich narzędzi.
- Zezwolić na korzystanie ze wszystkich narzędzi AI w zakresie jednego wąsko określonego zadania, zabezpieczając technicznie przed wgrywaniem treści zakazanych.
- Wprowadzić politykę używania AI określającą zakres dopuszczalnych narzędzi i acceptable use policy.
- Wprowadzić odpowiednie mechanizmy (kod, tarcze) blokujące wgrywanie niedozwolonego promptu.
- Wprowadzić zasady weryfikacji testów i prac pod kątem wykorzystywania AI – zasady te mogą zawierać sposób weryfikacji za pomocą dostępnych narzędzi pozwalających na rozpoznawanie użytego modelu [28].
Wybór narzędzi regulacji zależy też od stanowiska szkoły wobec AI – podejścia te są rozbieżne.
Podsumowanie
Ochrona dzieci przed praktykami zakazanymi może odbywać się na kilka sposobów: mające charakter ochrony sądowej, regulacji wewnętrznych placówek opiekuńczo-wychowawczych i reakcji w ramach systemów cyberbezpieczeństwa międzynarodowych i krajowych. Powinny zostać wprowadzone cywilnoprawne roszczenia z tytułu AI zbliżone do zasad odpowiedzialności za produkt, które uwzględniałyby jako jedno z podstawowych dóbr chronionych dobro dziecka pokrzywdzonego przez AI, umożliwiając uproszczone dochodzenie roszczeń przed sądem. Dodatkowo organy administracji odpowiedzialne za AI powinny umożliwić zgłaszanie naruszeń wynikłych z AI jako treści szkodliwych, podobnie jak dostawcy platform społecznościowych i dostawcy systemów AI, co umożliwi szybkie reagowanie na praktyki zakazane.
Regulacje wewnętrzne powinny uwzględniać poza acceptable use policy dozwolone narzędzia i ich rolę w procesie edukacyjnym w szkole wraz z koniecznością ich regularnego monitoringu. Dzięki tak precyzyjnym zasadom będzie możliwe odpowiedzialne używanie AI w celach edukacyjnych w niezbędnym zakresie i reagowanie na incydenty związane z pokrzywdzeniem dzieci przez AI. Nie powinny one całkowicie zakazywać treści AI, co prowadziłoby do tzw. efektu kobry.
Niemniej jednak na rodzicach spoczywa odpowiedzialność za edukację dzieci w zakresie AI – nauczenie dozwolonych zasad używania AI czy kontroli rodzica. Jest to także istotne dla przyszłego używania przez dzieci AI w sposób niepowodujący dla nich szkód.
Przypisy
- Warto zwrócić uwagę na sytuacje, w których dziecko jest doprowadzane do samobójstwa wskutek konwersacji z chatbotem. Zob. APP News, An AI chatbot pushed a teen to kill himself, a lawsuit against its creator alleges, tinyurl.com/5n85ct9c [dostęp: 10.04.2025].
- A. Kosecki, Prawo wobec zjawiska fałszywej pornografii. Nowe zagrożenia w cyberprzestrzeni, [w:] Cyberbezpieczeństwo na rzecz zapobiegania przyczynom przestępczości. CYBER SECURITY TO PREVENT CRIME CAUSES, red. M. Wielec, Warszawa 2023, s. 318–320.
- D. Flisak, Akt w sprawie sztucznej inteligencji, LEX/el. 2024. 4 OECD.AI Policy Observatory, Data scraping responsibly, tinyurl.com/3wh3589a [dostęp: 10.04.2025].
- OECD.AI Policy Observatory, Data scraping responsibly, tinyurl.com/3wh3589a [dostęp: 10.04.2025]. Do takich LLMs jest zaliczany m.in. LAION – model LLM stworzony w 2021 r. przez nauczyciela informatyki w Berlinie w wyniku analizy podobieństwa zdjęć z użyciem kodu w języku Python.
- N.T. Nikolinakos, EU Policy and Legal Framework for Artificial Intelligence, Robotics and Related Technologies – The AI Act, Berlin 2023, s. 443 i 702. Autorzy powołali się na przykład modelu AI stosowanego przez duńskie organy opieki społecznej w 2019 r., które kwalifikowały rodziny pochodzenia afrykańskiego do świadczeń społecznych.
- Wniosek Komisji Europejskiej, Dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję), COM(2022) 496 final.
- Opinia taka wyrażona w raporcie przygotowanym na zlecenie posła do Parlamentu Europejskiego Axela Vossa przez Philippa Hackera z Uniwersytetu Viadrina we Frankfurcie nad Menem, zob. EPRS, Proposal for a directive on adapting non-contractual civil liability rules to artificial intelligence. Complementary impact assessment, Bruksela 2024, s. 52.
- Maastricht University, The Withdrawal of the AI Liability Directive: A Critical Reflection on AI Liability in the EU, tinyurl.com/4twk8v2n [dostęp: 10.04.2025].
- Przykładem takiego zastosowania roszczenia jest powództwo wystosowane przez rodziców 14-latka wskutek konwersacji z chatbotem Dany udostępnionym na platformie Character.AI. Zob. New York Times, Can A.I. Be Blamed for a Teen’s Suicide?, tinyurl.com/4vtdxdwv [dostęp: 10.04.2025].
- Znaczenie edukacji dzieci w zakresie AI jest podkreślane przez OECD.
- R. Uszkai, Fostering intellectual and ethical virtues in the age of Artificial Intelligence. The need for educatorsin-the-loop, [w:] A. Longo, E. Guarcello, School Children and the Challenge of Managing AI Technologies: Fostering a Critical Relationship Through Aesthetic Experiences, Londyn 2024, tinyurl.com/3snuuyn2 [dostęp: 10.04.2025]
- Suno, suno.com/terms [dostęp: 10.04.2025].
- Zob. Midjourney, tinyurl.com/3hf9e88t [dostęp: 10.04.2025].
- OpenAI, tinyurl.com/4jh9pds4 [dostęp: 10.04.2025].
- Serwis Samorządowy PAP, „Lex Kamilek”: opublikowano jednolity tekst ustawy (dokument), tinyurl.com/3yau5tjx [dostęp: 10.04.2025].
- Przykładem dla inspiracji jest poradnik używania AI opracowany przez PARP. PARP, Rynek pracy, edukacja, kompetencje. Wykorzystanie sztucznej inteligencji w edukacji, Warszawa 2021. Poradnik ten zawiera opis rosnącego zainteresowania AI w edukacji.
- Przykładem jest polityka AI opracowana przez Taliaferro County Schools. Taliaferro County Schools, AI Policy, tinyurl.com/ytdkxtxm [dostęp: 10.04.2025].
- K. Bączyk-Lesiuk, L. Typańska-Czajka, Sztuczna inteligencja w nauczaniu języków. Perspektywa nauczycieli z Ukrainy, JOwS 2024, nr 2, DOI: 10.47050/jows.2024.4.47-56.
- K.J. Laak, J. Aru, Generative AI in K-12: Opportunities for learning and utility for teachers, [w:] Artificial Intelligence in Education. Posters and Late Breaking Results, Workshops and Tutorials, Industry and Innovation Tracks, Practitioners, Doctoral Consortium and Blue Sky: 25th International Conference, AIED 2024, Recife, Brazil, July 8–12, 2024, Proceedings, Part I, red. A.M. Onley i in., s. 505–508.
- Teach AI, Toolkit guidance, tinyurl.com/39sy5e9r [dostęp: 10.04.2025].
- Nierzadko rozumianych jako treści szkodliwe niezależnie od tego, czy zostały stworzone przez AI – standardy ochrony małoletnich często tego nieprecyzują. Zob. Standardy Ochrony Małoletnich w Państwowym Liceum Sztuk Plastycznych im. Wojciecha Kossaka w Łomży (wersja skrócona), Zasady ochrony małoletnich przed treściami szkodliwymi i zagrożeniami z sieci.
- § 17 Załącznika do Zarządzenia Dyrektora V Liceum Ogólnokształcącego im. Księcia Józefa Poniatowskiego w Warszawie nr 192 z 17.07.2024 r. – Standardy Ochrony – Polityka Ochrony Dzieci V Liceum Ogólnokształcącego im. Księcia Józefa Poniatowskiego w Warszawie.
- Załącznik do Zarządzenia Dyrektora Domu Dziecka w Mińsku Mazowieckim – Standardy Ochrony Małoletnich w Domu Dziecka w Mińsku Mazowieckim, s. 10.
- Jako przykład podaje się zakaz używania AI przyjęty przez władze Helsinek w lutym 2025 r. Zob. N. Rasiewicz, Zakaz chatbotów AI w szkołach. Polski system edukacji jest na to gotowy?, Portal Samorządowy, 7 lutego 2025 r., tinyurl.com/4t2zh47x [dostęp: 10.04.2025].
- EdWeek.org, Does Your District Ban ChatGPT? Here’s What Educators Told Us, tinyurl.com/ydvwnmsj [dostęp: 10.04.2025].
- Operon.pl, Powstała pierwsza klasa z AI zamiast nauczyciela, tinyurl.com/mudhspft [dostęp: 10.04.2025].
- Zob. np. PinwheelGPT, pinwheel.com/gpt [dostęp: 10.04.2025], Safekids.ai, safekids.ai/products [dostęp: 10.04.2025].
- Np. dostępne na rynku narzędzia mogą objąć ISGEN (isgen.ai/pl) czy Smodin (tinyurl.com/n5y8a55x).
Autor
Anastazja Drapata
Autorka jest założycielką projektu badawczego Laboratorium Prawnicze Legal Lab, działającego od marca 2023 r. w ramach którego bada powiązania nauk prawnych z fizyką sieci złożonych oraz prognozuje potencjalne rozwiązania legislacyjne oraz orzecznicze. Aktualnie jest związana naukowo z Uniwersytetem Warszawskim.