W trosce o bezpieczeństwo dzieci i młodzieży w Internecie, Państwowa Komisja do spraw przeciwdziałania wykorzystaniu seksualnemu małoletnich poniżej lat 15 zwraca się z apelem do Prezydenta RP o podpisanie ustawy o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz niektórych innych ustaw, która stanowi warunek konieczny do wdrożenia w Polsce Aktu o usługach cyfrowych (DSA). Ponieważ na etapie prac Senatu RP z projektu ustawy usunięta została klauzula natychmiastowej wykonalności decyzji organów regulacyjnych, apelujemy także do wszystkich osób i instytucji kształtujących polityki publiczne, w szczególności do wymiaru sprawiedliwości, o właściwe wsparcie mechanizmu szybkiego blokowania treści i kontaktów zagrażających bezpieczeństwu dzieci i młodzieży. Wdrożenie DSA jest warunkiem koniecznymi i tylko jedną z wielu potrzebnych regulacji, by po latach porażek zacząć wygrywać batalię ze zjawiskiem krzywdzeniem osób małoletnich w sieci.
Z niepokojem odbieramy niektóre z opinii, wyrażane przez osoby pełniące funkcje publiczne wobec przedmiotowej ustawy. W szczególności nasz sprzeciw budzą głosy postulujące ograniczanie kompetencji Prezesa Urzędu Komunikacji Elektronicznej w zakresie blokowania treści destrukcyjnych i precyzyjnie zapisanych w projekcie ustawy w katalogu przestępstw zdefiniowanych w Kodeksie karnym.
Część wspomnianego katalogu zapisanego w ustawie, chronić ma osoby małoletnie przed różnymi formami przemocy doświadczanej w cyberprzestrzeni, a w szczególności przed krzywdzeniem seksualnym. Zakres tej ochrony określony jest w artykule 11a ustawy.
Przepis ten wskazuje z jednej strony podmioty uprawnione do złożenia wniosku o wydanie nakazu podjęcia działań przeciwko nielegalnym treściom, z drugiej zaś – katalog przestępstw, których ma dotyczyć procedura nakazowa. Zgodnie z projektem, podmiotami uprawnionymi do rozpatrzenia ww. wniosków są dwa fachowe podmioty, tj. Przewodniczący KRRiT oraz Prezes Urzędu Komunikacji Elektronicznej (UKE). Patrząc z perspektywy dobra małoletnich użytkowników Internetu, próby ograniczania kompetencji tych organów, niekorzystnie wpłyną na proces ochrony dzieci w sieci.
W ocenie Państwowej Komisji a także wielu instytucji i organizacji krajowych oraz międzynarodowych, mamy obecnie do czynienia w sieci z lawiną przemocy seksualnej wobec dzieci i młodzieży. Wskazują na to liczące się źródła. Według badań renomowanej organizacji We Protect – Global Alliance, nawet 69 proc. osób poniżej 18 roku życia w Polsce doświadczyła przynajmniej jednej z form krzywdzenia seksualnego w internecie[1].
Jedną z miar wskazujących na skalę zjawiska jest rozpowszechnianie materiałów prezentujących seksualne wykorzystanie dziecka, tzw. CSAM (Child Sexual Abuse Materials). Trendy światowe pokazują ich regularny przyrost, także w Polsce. W oparciu o dane Internet Watch Foundation (IWF) w latach 2020-2023 nastąpił wzrost liczby materiałów CSAM o 87 proc.[2]. Jeśli jednak uwzględnimy materiały wytworzone przez małoletnich w wieku 7-10 lat (pod wpływem manipulacji, szantażu, zastraszania), to wzrost wyniósł 360 proc.[3]. Co więcej, 66 proc. użytkowników szukających CSAM w Internecie, po raz pierwszy zetknęło się z takimi materiałami, przed ukończeniem 18 roku życia, a 37 proc. respondentów miało mniej niż 13 lat[4].
Funkcjonujący w strukturach NASK – Polskiego Instytutu Badawczego, zespół Dyżurnet.pl odnotował wzrost zgłoszeń dotyczących CSAM w 2024 roku o 400 proc.[5]. Jednoznacznym dowodem ogromnego problemu CSAM w Polsce jest fakt, że Centralne Biuro Zwalczania Cyberprzestępczości (CBZC), aż w 30 proc. swojej aktywności zajmuje się zwalczaniem tej właśnie formy krzywdzenia osób małoletnich[6]. Praktyka instytucji pokazuje, że materiały CSAM zbyt często dostępne są w otwartych zasobach sieci, w tym na platformach społecznościowych. Niejednokrotnie są również przesyłane osobom małoletnim za pośrednictwem komunikatorów.
Podkreślić należy, że osoby krzywdzone w dzieciństwie, których wizerunek został utrwalony w postaci zdjęć lub materiałów wideo, doświadczać mogą tzw. wtórnej wiktymizacji za każdym razem, kiedy obrazy te są ponownie publikowane. Życie w lęku przed byciem rozpoznanym towarzyszy im często przez dziesiątki lat.
Kolejnym, niezwykle niepokojącym zjawiskiem jest ekspozycja dzieci i młodzieży na treści pornograficzne. Już samo prezentowanie treści pornograficznych osobom małoletnim poniżej 15 roku życia jest przestępstwem z art. 200 k.k. Kontakt z pornografią wpływa też niezwykle destrukcyjnie na rozwój emocjonalny, poznawczy, moralny, społeczny i seksualny młodych ludzi. Jak wykazuje w swoim najnowszym raporcie z badań brytyjska Komisarz ds. praw dziecka, charakterystyką współczesnych treści pornograficznych, do których dostęp mają osoby małoletnie, jest ich brutalność[7].
Co więcej, sukcesywnie obniża się wiek pierwszego kontaktu z treściami pornograficznymi. W Polsce wynosi on obecnie 11 lat. Prawie 1/3 badanych nastolatków deklaruje, że taki kontakt nastąpił nieintencjonalnie, w trakcie poszukiwania innych informacji. Najczęściej jednak, materiały pornograficzne przesyłane są przez inne osoby lub dostarczane przez algorytmy rekomendacyjne platform społecznościowych. 1,3 mln nastolatków korzysta z popularnego serwisu pornograficznego (a około 0,8 mln z portali hazardowych)[8]. Z raportu, którego Państwowa Komisja jest współwydawcą, opartego na panelu badawczym Gemius-PBI, pt. „Internet dzieci” wynika, że ponad połowa młodych ludzi w wieku 7-14 lat regularnie korzysta z treści pornograficznych używając do tego przede wszystkim smartfonów[9].
Szczególny niepokój wywołują przestrzenie platform społecznościowych – obszaru stałego funkcjonowania młodych ludzi. Obecnie są to miejsca, w których najczęściej dochodzi do seksualnego wykorzystania osób małoletnich. Powtarzającym się modus operandi sprawców jest nawiązanie kontaktu w mediach społecznościowych, a następnie utrzymywanie kontaktu za pośrednictwem komunikatorów. Z analiz spraw karnych wynika, że skutki psychiczne jakie obserwuje się u pokrzywdzonych to, między innymi: „niepokój, lęk, symptomy zespołu stresu pourazowego (PTSD), próby samobójcze, długotrwały smutek, problemy z koncentracją, izolowanie się od bliskich i znajomych, unikanie obecności w internecie”[10].
Alarmujące są także wnioski z badań przeprowadzonych przez organizację Protect Children, z których wynika, że 77 proc. badanych poszukujących treści CSAM znajduje je w zasobach otwartych sieci – głównie w serwisach pornograficznych, mediach społecznościowych oraz komunikatorach. Na pytanie, gdzie szukają kontaktu z dziećmi w sieci, 1/3 odpowiada, że w mediach społecznościowych oraz w grach online[11].
Wspomniane już badanie brytyjskiej Komisarz ds. praw dziecka poświęcone wpływowi treści pornograficznych na młodych ludzi pokazuje, że aż 8 z 10 największych „dostawców” tych treści do osób małoletnich, to powszechnie znane platformy społecznościowe[12]. Rozwój sztucznej inteligencji przynosi także, dodatkowe zagrożenia dla osób małoletnich, o czym alarmują organizacje międzynarodowe specjalizujące się w ochronie dzieci. Wykorzystanie sztucznej inteligencji w 2024 roku w celach seksualnych wzrosło o 380 proc.[13].
Jednocześnie, mamy do czynienia z brakiem polityk ochrony osób małoletnich w mediach społecznościowych. Raport „Internet dzieci” wykazuje, że aż 1,4 mln dzieci w wieku 7-12 lat używa regularnie platform społecznościowych, choć oficjalny wiek dostępu do nich wynosi 13 lat. Uwzględnić przy tym należy, niezwykle niepokojący mechanizm algorytmów rekomendacyjnych, które według wielu raportów badawczych dostarczają młodym ludziom całą paletę krzywdzących treści i kontaktów[14]. Osoby małoletnie, szczególnie poniżej 15 roku życia, z perspektywy naturalnych etapów rozwojowych, nie są w stanie poradzić sobie z mechanizmem algorytmów, które nie biorą pod uwagę zróżnicowanych potrzeb rozwojowych dzieci i młodzieży. W konsekwencji, skala zagrożeń wciąż rośnie. Ich dalsze akceptowanie przez przedsiębiorstwa cyfrowe oraz tolerowanie przez polityki publiczne prowadzi do rosnącej skali krzywd i kosztów społecznych w postaci zdrowia i życia osób małoletnich.
Biorąc pod uwagę powyższe, Państwowa Komisja zwraca się do Prezydenta RP z apelem
o podpisanie ustawy o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz niektórych innych ustaw oraz do innych przedstawicieli władz o stworzenie optymalnie szybkiego mechanizmu blokowania treści i kontaktów niebezpiecznych dla dzieci i młodzieży, spełniających znamiona przestępstw. Mechanizm ten może być także pierwszym krokiem w budowaniu nie tylko procedur, ale także kultury ochrony dzieci i młodzieży w cyberprzestrzeni. Przypominamy również, że obowiązki wobec tej grupy społecznej nałożone są na państwa w art. 28 Aktu o usługach cyfrowych (DSA).
[1] We Protect: WeProtect_Economist-Impact_European-online-sexual-harms-study_Poland-country-profile_translation.pdf, s. 2
[2] We Protect: Global-Threat-Assessment-2023-English.pdf, s. 4.
[3] Internet Watch Foundation: WeProtect_Economist-Impact_European-online-sexual-harms-study_Poland-country-profile_translation.pdf
[4] Sparks in the Dark: Prevention
[5] N. Bochyńska, Seksualne materiały z udziałem dzieci. Alarmujące liczby, Cyberdefence 24, 3.02.2025: Seksualne materiały z udziałem dzieci. Alarmujące liczby
[6] Centralne Biuro Zwalczania Cyberprzestępczości 2024: Raporty z działalności – Centralne Biuro Zwalczania Cyberprzestępczości
[7] Children’s Commisssioner, “Sex is kind of broken now”: children and pornography: cc-sex-is-kind-of-broken-now-children-and-pornography.pdf
[8] NASK, Nastolatki 3.0: Thinkstat_RAPORT_nastolatki-3_0_ONLINE-2.pdf
[9] PKDP: INTERNET_DZIECI_RAPORT.pdf
[10] J. Napierała, Problematyka wykorzystywania seksualnego małoletnich w Internecie – analiza karnoprawna: Problematyka wykorzystywania seksualnego małoletnich w Internecie – analiza karnoprawna Joanny Napierały – PKDP
[11] Protect Children: Knowledge to Prevent Online Sexual Violence Against Children
[12] Children’s Commisssioner, “Sex is kind of broken now”: children and pornography: cc-sex-is-kind-of-broken-now-children-and-pornography.pdf
[13] ProtectUsKids: Protect Us Kids Report Reveals Alarming Surge in AI-Driven
[14] Dublin City University: Recommending Toxicity: The role of algorithmic recommender functions on YouTube Shorts and TikTok in promoting male supremacist influencers, University of Kent: Safer-scrolling.pdf