Rozwój sztucznej inteligencji wiąże się z wieloma wyzwaniami, które wymagają szybkiego dostosowania przepisów prawnych. Regulacje takie jak DSA i AI Act są fundamentami odpowiedzialnego rozwoju technologii w Unii Europejskiej, ale wciąż istnieje potrzeba dalszego doprecyzowania odpowiedzialności dostawców narzędzi AI, zwłaszcza w kontekście generowanych treści.
W erze cyfrowej transformacji prawo staje przed bezprecedensowym wyzwaniem regulacji technologii, która wymyka się tradycyjnym ramom legislacyjnym – sztucznej inteligencji. Szczególnie interesujący z perspektywy prawnej jest sposób, w jaki ustawodawca unijny próbuje zbalansować ochronę praw podstawowych z potrzebą rozwoju innowacyjnych rozwiązań technologicznych. Ten dualizm celów znajduje odzwierciedlenie w dwóch fundamentalnych aktach prawnych: akcie o usługach cyfrowych (Digital Services Act) oraz akcie o sztucznej inteligencji (AI Act).
Pojawienie się zaawansowanych modeli AI, które potrafią generować teksty, obrazy i inne treści cyfrowe na podstawie prostych poleceń użytkownika, postawiło przed prawodawcami szereg złożonych pytań. Kto ponosi odpowiedzialność za treści generowane przez AI? Jak chronić prawa własności intelektualnej w kontekście uczenia maszynowego? Gdzie przebiega granica między innowacją a potencjalnym zagrożeniem dla społeczeństwa?
Odpowiedzią na te wątpliwości ma być swoista synergia regulacyjna między DSA, obowiązującym od 2022 r., a AI Act, który wszedł w życie w 2024 r. Te komplementarne akty prawne tworzą pierwszy na świecie tak kompleksowy system regulacji sztucznej inteligencji, stanowiąc jednocześnie precedens legislacyjny o potencjalnie globalnym znaczeniu dla rozwoju prawa nowych technologii.
Wyzwania związane z klasyfikowaniem dostawców AI jako usług pośrednich
Szczególnie intrygującym zagadnieniem na styku DSA i systemów generatywnej sztucznej inteligencji jest próba zakwalifikowania tych ostatnich do kategorii usług pośrednich. Trójpodział usług pośrednich w DSA na mere conduit, caching oraz hosting wydaje się nie przystawać do specyfiki funkcjonowania zaawansowanych modeli językowych. O ile tradycyjne platformy internetowe pełnią rolę przekaźnika lub magazynu treści tworzonych przez użytkowników, o tyle systemy takie jak ChatGPT aktywnie przetwarzają dane wejściowe, generując autonomiczne odpowiedzi.
Ta fundamentalna różnica rodzi szereg pytań prawnych. Czy prompt użytkownika można traktować jako „przechowywaną informację” w rozumieniu art. 14 DSA? Czy wygenerowana przez AI odpowiedź stanowi „treść dostarczoną przez odbiorcę usługi”? Klasyczne koncepcje odpowiedzialności pośredników internetowych, oparte na założeniu ich pasywnej roli w transmisji i przechowywaniu danych, zderzają się tu z aktywną, kreatywną funkcją systemów AI.
Jeszcze bardziej złożona staje się kwestia odpowiedzialności za treści generowane przez sztuczną inteligencję. W przypadku, w którym model językowy stworzy treść naruszającą prawo – np. zawierającą dezinformację lub mowę nienawiści – tradycyjny łańcuch odpowiedzialności może okazać się nieadekwatny.
Sztuczna inteligencja a wyzwania prawne
Ewolucja regulacji prawnych dotyczących sztucznej inteligencji odzwierciedla fundamentalną zmianę w postrzeganiu tej technologii – od niszowego narzędzia badawczego do kluczowego elementu transformacji cyfrowej. Szczególnie interesujący jest proces dojrzewania europejskiego prawodawstwa w tym zakresie, którego punktem kulminacyjnym stało się przyjęcie AI Act w 2024 r. Ta regulacja stanowi pierwszą na świecie próbę kompleksowego uregulowania systemów sztucznej inteligencji, wprowadzając podejście oparte na analizie ryzyka.
Pojawienie się modeli generatywnych radykalnie zmieniło dotychczasowe paradygmaty prawne. O ile wcześniejsze regulacje koncentrowały się głównie na kwestiach ochrony danych osobowych i bezpieczeństwa aplikacji AI, o tyle obecnie kluczowe stają się zagadnienia związane z odpowiedzialnością za treści generowane przez sztuczną inteligencję oraz ich wpływem na przestrzeń publiczną.
Wyjątkowo problematyczna jest kwestia dezinformacji algorytmicznej. W przeciwieństwie do tradycyjnych form fake news treści generowane przez AI charakteryzują się bezprecedensową skalą i trudnością w identyfikacji źródła. Powstaje pytanie, czy obecne ramy prawne, oparte na koncepcji odpowiedzialności indywidualnej, są wystarczające do przeciwdziałania systemowym zagrożeniom związanym z masową generacją wprowadzających w błąd treści.
Nie mniej istotnym wyzwaniem jest brak transparentności w oznaczaniu treści generowanych przez AI. Problem ten wykracza poza prostą kwestię technicznego oznakowania – dotyka fundamentalnych pytań o prawo odbiorcy do wiedzy o pochodzeniu konsumowanych treści. W kontekście rosnącej roli algorytmów w kształtowaniu opinii publicznej ta kwestia nabiera szczególnego znaczenia dla ochrony procesów demokratycznych i integralności debaty publicznej.
Rola dostawców AI w przestrzeni cyfrowej
Dostawcy narzędzi opartych na sztucznej inteligencji odgrywają kluczową rolę w kształtowaniu przestrzeni cyfrowej. Z jednej strony są to dostawcy technologii, które umożliwiają tworzenie treści, ale z drugiej – ich działalność rodzi pytania dotyczące odpowiedzialności prawnej za te treści. Modele AI nie są jedynie narzędziami pasywnymi, które wykonują polecenia użytkownika. Same generują treści, które mogą być udostępniane publicznie lub wykorzystywane w różnych kontekstach.
W ramach aktu o usługach cyfrowych dostawcy usług pośrednich, takich jak platformy internetowe, są zobowiązani do przestrzegania określonych zasad odpowiedzialności za treści zamieszczane przez użytkowników. Z kolei w przypadku dostawców narzędzi opartych na sztucznej inteligencji pojawia się pytanie, czy ich działalność powinna być traktowana w ramach regulacji dotyczących usług pośrednich.
Zgodnie z definicją DSA usługi pośrednie obejmują platformy, które przechowują lub transmitują treści dostarczane przez użytkowników. W przypadku AI jednak treści są generowane przez algorytm na podstawie danych wejściowych użytkownika, co stawia dostawców AI w trudnej sytuacji w kwestii klasyfikacji prawnej. Ich działalność nie jest dokładnie zgodna z tradycyjnymi definicjami usług pośrednich, ponieważ generowanie treści przez AI jest aktywnością twórczą, której efekty mogą być niezależne od intencji użytkownika.
Dostawcy AI powinni przestrzegać przepisów dotyczących przejrzystości, czyli obowiązku ujawniania, jak działa ich system oraz jak generowane treści mogą wpływać na użytkowników. Ponadto w kontekście DSA muszą oni wdrożyć mechanizmy odpowiedzialności, które zapewnią, że wygenerowane treści nie będą naruszały prawa, w tym przepisów dotyczących ochrony prywatności, dezinformacji czy mowy nienawiści.
Wraz z dalszym rozwojem generatywnej sztucznej inteligencji regulacje muszą ewoluować, aby dostosować je do nowych wyzwań, jakie stawia ta technologia. To z kolei wymaga, aby dostawcy narzędzi AI ponosili odpowiedzialność nie tylko za treści generowane przez ich systemy, ale także za sposób, w jaki te systemy funkcjonują w przestrzeni cyfrowej.
Problematyka klasyfikacji prawnej dostawców generatywnej AI
Próba klasyfikowania dostawców generatywnej sztucznej inteligencji w ramach usług pośrednich, jak określono to w akcie o usługach cyfrowych, napotyka szereg trudności. Z jednej strony dostawcy AI tacy jak OpenAI bądź Google oferują narzędzia, które umożliwiają użytkownikom tworzenie treści. Z drugiej strony generowane przez AI treści nie są jedynie przekazywaniem lub przechowywaniem danych, jak ma to miejsce w przypadku tradycyjnych usług pośrednich. AI tworzy nowe treści, co wprowadza nowy wymiar działalności tych dostawców, który nie mieści się łatwo w tradycyjnych definicjach usług pośrednich.
Zgodnie z DSA usługi pośrednie są klasyfikowane jako usługi, które przechowują dane lub je przekazują, ale nie są odpowiedzialne za treści dostarczane przez użytkowników. W przypadku jednak dostawców generatywnej AI mamy do czynienia z sytuacją, w której treść jest generowana przez system AI na podstawie danych wejściowych użytkownika, a nie jedynie przesyłana czy przechowywana. To sprawia, że dostawcy takich narzędzi mogą być postrzegani jako aktywni twórcy treści, a nie tylko pośrednicy. W związku z tym pojawia się pytanie, czy powinni oni podlegać takim samym obowiązkom prawnym jak platformy internetowe, które jedynie przechowują lub transmitują treści dostarczane przez użytkowników.
Trudno z kolei jednoznacznie zakwalifikować dostawców generatywnej sztucznej inteligencji do tradycyjnych kategorii jak usługi hostingu czy zwykłego przekazu, ponieważ ich działalność wykracza poza prostą transmisję informacji. Są to dostawcy usług, które tworzą treści na podstawie danych wejściowych użytkowników, a nie jedynie je przetwarzają. Dodatkowo, technologia generatywnej sztucznej inteligencji, głównie w przypadku dużych modeli językowych, takich jak GPT, wciąż jest stosunkowo nowa, co sprawia, że definicje prawne muszą być dostosowane do zmieniającego się krajobrazu technologii cyfrowych.
Wobec tych wyzwań niezbędne jest dostosowanie AI Act do nowych realiów związanych z rozwojem generatywnej sztucznej inteligencji. Konieczne będzie także wprowadzenie nowych regulacji, które uwzględnią specyfikę takich technologii i zapewnią odpowiednią ochronę użytkowników oraz odpowiedzialność dostawców.
Interakcje między DSA a regulacjami dotyczącymi AI
Zgodnie z DSA odpowiedzialność dostawców usług internetowych za treści generowane przez użytkowników jest ograniczona, pod warunkiem że platformy nie ingerują w te treści. DSA wprowadza mechanizmy odpowiedzialności za usunięcie lub zablokowanie treści, które są nielegalne, a dostawcy usług internetowych mogą uniknąć odpowiedzialności, jeśli spełniają wymagania dotyczące tzw. bezpiecznej przystani (safe harbor), czyli nie mają wiedzy o nielegalności treści lub działają po uzyskaniu takiej wiedzy.
W kontekście algorytmów generatywnych sytuacja staje się bardziej skomplikowana. Jak wskazano powyżej, algorytmy te nie tylko przetwarzają informacje, ale tworzą treści na podstawie danych wejściowych użytkowników. To oznacza, że odpowiedzialność za treści generowane przez te systemy może być trudna do określenia. W przypadku algorytmów generatywnych platformy mogą działać nie tylko jako pośrednicy, ale także jako twórcy treści, co wykracza poza tradycyjne pojęcie usług pośrednich w kontekście DSA.
W tych okolicznościach pojawiają się pytania, czy dostawcy narzędzi AI powinni ponosić odpowiedzialność za treści generowane przez ich algorytmy, zwłaszcza gdy te treści mogą być szkodliwe, np. dezinformacja, mowa nienawiści czy obraźliwe wiadomości. Mimo że DSA nakłada obowiązki na platformy internetowe dotyczące moderacji treści, algorytmy AI wprowadzają dodatkową warstwę złożoności, ponieważ same tworzą treści, które mogą być niewłaściwie wykorzystywane lub mogą prowadzić do niezamierzonych konsekwencji.
Przepisy dotyczące moderacji treści
Jak dostawcy narzędzi AI mogą wprowadzać środki zaradcze dotyczące dezinformacji i moderowania treści?
Moderowanie treści jest jednym z kluczowych zagadnień regulowanych przez DSA, który nakłada na dostawców usług cyfrowych obowiązki w zakresie zapobiegania szerzeniu nielegalnych treści, takich jak dezinformacja czy mowa nienawiści. DSA wprowadza obowiązek przejrzystości w kwestii algorytmów, które są stosowane przez platformy, a także wymaga wdrożenia procedurumożliwiających usuwanie lub blokowanie treści, które naruszają prawo.
W kontekście narzędzi opartych na sztucznej inteligencji, takich jak generatywne modele AI, dostawcy tych technologii mogą wdrożyć dodatkowe mechanizmy zaradcze, aby zapobiegać tworzeniu lub rozpowszechnianiu nielegalnych treści. Przykładowo, mogą to być systemy oceny ryzyka, które analizują potencjalne zagrożenia związane z treściami tworzonymi przez AI, a także algorytmy monitorujące, które wykrywają dezinformację lub nieodpowiednie treści przed ich opublikowaniem.
Dodatkowo, dostawcy narzędzi generatywnej AI muszą wprowadzić odpowiednie mechanizmy moderowania treści, które umożliwią kontrolowanie wyników generowanych przez algorytmy w czasie rzeczywistym. Mogą to być mechanizmy automatycznego usuwania treści, które są uznane za niezgodne z prawem, a także systemy pozwalające użytkownikom zgłaszać treści w przypadku, gdy te wydają się nieodpowiednie lub nieprawdziwe.
Co istotne, dostawcy narzędzi AI powinni być zobowiązani do pełnej przejrzystości dotyczącej sposobu, w jaki ich algorytmy działają i tego, jak są wykorzystywane do tworzenia treści. Tylko wtedy użytkownicy będą mogli świadomie korzystać z narzędzi opartych na sztucznej inteligencji, mając pełną wiedzę na temat ich potencjalnych skutków i ograniczeń. Niewątpliwie bowiem brak pełnej przejrzystości w procesie tworzenia treści przez sztuczną inteligencję jest jednym z kluczowych wyzwań związanych z regulowaniem algorytmów generatywnych. Wiele systemów AI, w tym modele językowe, działa w sposób, który jest trudny do przewidzenia, a ich decyzje twórcze są wynikiem skomplikowanych procesów obliczeniowych. W przypadku dezinformacji, manipulacji treściami bądź naruszenia prywatności może być bardzo trudno ustalić, dlaczego algorytm wygenerował daną treść.
Brak przejrzystości w zakresie działania systemów AI prowadzi do poważnych problemów prawnych, zwłaszcza w kontekście odpowiedzialności za wygenerowane treści. Jeśli algorytmy generują treści, które są nielegalne lub szkodliwe, brak wiedzy na temat sposobu, w jaki te decyzje zostały podjęte, może utrudnić pociągnięcie dostawcy narzędzia AI do odpowiedzialności. Ponadto jeśli użytkownicy nie są w stanie zrozumieć, w jaki sposób algorytmy generują określone treści, może to prowadzić do braku zaufania do tych technologii oraz ich nieodpowiedzialnego wykorzystywania.
DSA wymaga od platform internetowych, aby przejrzystość algorytmów była standardem, a użytkownicy byli świadomi, jak działa technologia wykorzystywana przez platformy. To pozwoli uniknąć takich problemów. Brak pełnej przejrzystości w zakresie działania systemów AI może prowadzić do naruszenia zasad odpowiedzialności, co w konsekwencji może skutkować poważnymi konsekwencjami prawno-finansowymi dla dostawców usług opartych na sztucznej inteligencji.
Przepisy dotyczące odpowiedzialności za treści generowane przez AI
Akt o usługach cyfrowych wprowadza szczegółowe przepisy dotyczące odpowiedzialności za treści w internecie, jednak nie uwzględnia w pełni wyzwań związanych z treściami generowanymi przez sztuczną inteligencję. Tradycyjnie dostawcy usług pośrednich, takich jak platformy internetowe, odpowiadają za treści generowane przez użytkowników tylko wówczas, gdy mają wiedzę o ich nielegalności i nie podejmują działań w celu ich usunięcia. DSA stanowi, że platformy mogą uniknąć odpowiedzialności za treści przekazywane przez użytkowników, pod warunkiem że spełniają określone wymagania, w tym mają procedury zgłaszania nielegalnych treści.
W przypadku generatywnej sztucznej inteligencji odpowiedzialność staje się bardziej złożona. Algorytmy AI tworzą treści, bazując na danych wejściowych użytkownika. W przeciwieństwie jednak do tradycyjnego hostingu, gdzie platformy przechowują lub transmitują treści, w przypadku AI mamy do czynienia z sytuacją, w której treści są generowane przez algorytmy na podstawie interakcji z użytkownikiem. Takie treści mogą obejmować teksty, obrazy, filmy, a także inne materiały, które mogą naruszać prawo, np. w kontekście dezinformacji, mowy nienawiści czy treści szkodliwych.
Problemem, który pojawia się w kontekście odpowiedzialności za treści generowane przez AI, jest rozróżnienie między treściami tworzonymi przez użytkowników a treściami tworzonymi przez algorytmy AI. Tradycyjnie odpowiedzialność za treści stworzone przez użytkowników leży po stronie platform, ale w przypadku generatywnej sztucznej inteligencji nie jest łatwo przypisać odpowiedzialność, ponieważ algorytmy same tworzą treści na podstawie instrukcji użytkownika. Pytanie o to, kto ponosi odpowiedzialność za treści wygenerowane przez AI, staje się zatem bardziej złożone: czy jest to użytkownik, który wprowadził dane wejściowe, czy może dostawca narzędzia AI, który umożliwił generowanie treści?
DSA wciąż nie rozstrzyga jednoznacznie tej kwestii, ale można spodziewać się, że przyszłe regulacje, zwłaszcza w kontekście aktu o sztucznej inteligencji, mogą nałożyć obowiązki odpowiedzialności na dostawców narzędzi AI za generowane treści. Będzie to dotyczyło zwłaszcza tych przypadków, w których te treści mogą stanowić zagrożenie dla użytkowników lub naruszać obowiązujące przepisy prawne.
Kolejnym istotnym zagadnieniem związanym z odpowiedzialnością za treści generowane przez AI jest wymóg oznaczania treści generowanych przez sztuczną inteligencję. Obecnie wiele systemów AI jest w stanie generować treści, które wyglądają na autentyczne i są nieodróżnialne od tych tworzonych przez ludzi. Dotyczy to zarówno tekstów, jak i obrazów czy filmów, które mogą być wykorzystywane do manipulacji opinią publiczną, tworzenia deepfake’ów, a także szerzenia dezinformacji.
W tym kontekście DSA stawia na przejrzystość i odpowiedzialność dostawców usług internetowych. Platformy muszą wprowadzać mechanizmy zgłaszania treści, które mogą naruszać przepisy prawa. Jednak w przypadku treści generowanych przez AI, szczególnie w odniesieniu do deepfake’ów (czyli zmanipulowanych filmów lub obrazów, które wydają się autentyczne), regulacje muszą być bardziej szczegółowe.
Zasady oznaczania treści generowanych przez AI stają się kluczowe, by użytkownicy mogli rozpoznać, że dana treść nie została stworzona przez człowieka, ale przez algorytm. Oznaczanie treści wytworzonych przez AI może stanowić istotny element w zapobieganiu manipulacjom i dezinformacji, przede wszystkim w przestrzeni mediów społecznościowych bądź w kontekście materiałów wideo, które mogą być wykorzystywane do wprowadzenia w błąd opinii publicznej.
Wymóg oznaczania treści tworzonych przez AI jest także ściśle związany z etyką technologii i ochroną użytkowników, którzy nie powinni być wprowadzani w błąd, myśląc, że dane materiały zostały stworzone przez prawdziwego człowieka. W związku z tym dostawcy narzędzi AI powinni być zobowiązani do wprowadzenia odpowiednich oznaczeń lub tagów, które jasno wskazują, że dana treść została wygenerowana przez algorytm.
Na poziomie prawnym wymóg oznaczania treści generowanych przez AI powinien być częścią szerszej regulacji, której celem jest przeciwdziałanie manipulacjom w sieci i zwiększenie przejrzystości algorytmów generatywnych. Tego rodzaju środki zapobiegawcze mogą pomóc w zwiększeniu zaufania użytkowników do narzędzi sztucznej inteligencji, chroniąc jednocześnie ich przed negatywnymi skutkami niewłaściwego wykorzystania tej technologii.
Autor
Karolina Wilamowska
Autorka jest adwokatką, mediatorką CM przy Krajowej Izbie Gospodarczej, aplikantką rzecznikowską, doktorantką Uniwersytetu Gdańskiego, przewodniczącą Komisji ds. Nowych Technologii przy ORA Bydgoszcz.