Artykuł Konrada Ciesiołkiewicza, członka Państwowej Komisji w publikacji
„Internet dzieci”. Raport z monitoringu obecności dzieci i młodzieży w internecie
Funkcjonowanie w świecie mediów cyfrowych stało się tak powszechne, angażujące i przenikające każdy aspekt życia, że analizując mechanizmy społeczne, trzeba przyjąć założenie bezprecedensowej skali mediatyzacji. Rozumieć należy przez nią „proces pośrednictwa mediów w poznawaniu świata, wpływanie przez media na postrzeganie przez człowieka rzeczywistości niedostępnej bezpośredniemu doświadczeniu wraz z konsekwencjami takiego pośrednictwa: kształtowaniem obrazu całej rzeczywistości społecznej, a nawet kompleksowych doświadczeń społecznych pod wpływem konstrukcji medialnych”[1].
Środowisko cyfrowe
Na wpływ technologii informacyjnych – jako motoru przemian całego ekosystemu medialnego – na wszystkie obszary życia wskazuje Neil Postman, namawiając jednocześnie do przyjęcia podejścia ekologicznego: „Nowa technologia nic nie dodaje ani niczego nie odejmuje. Nowa technologia wszystko zmienia […] Ekologia mediów koncentruje się na tym, jak media mogą zmieniać nasze postrzeganie, wyznawane wartości, ale także w nurcie tym mieszczą się próby udzielenia odpowiedzi na pytanie, jak nasze interakcje z mediami ułatwiają bądź utrudniają przetrwanie”[2].
Media tworzą naturalne środowisko życia, rozwoju, spędzania czasu wolnego i budowania oraz podtrzymywania relacji społecznych człowieka. Uwzględniając podstawową jednostkę przekazu, jaką jest informacja, mówić można także o infosferze – przestrzeni informacyjnej, „w której człowiek fizycznie i wirtualnie funkcjonuje”, która jest „sumą indywidualnych przestrzeni informacyjnych poszczególnych użytkowników”. Środowisko to tworzą ludzie, organizacje i maszyny.
I na ten ostatni aspekt chciałbym zwrócić szczególną uwagę. W mojej ocenie w dyskusjach dotyczących zachowania ludzi i grup społecznych w przestrzeni mediów cyfrowych zbyt rzadko uwzględnia się, że jest to środowisko oparte na instytucjach, a wytwarzany przez nie specyficzny ekosystem jest przestrzenią instytucjonalną. Tworzą ją przede wszystkim przedsiębiorstwa – dostawcy usług i produktów, reklamodawcy, pracownicy działów marketingu, twórcy treści, instytucje regulacyjne, organizacje, redakcje, agencje i wiele innych. Środowisko cyfrowe to przestrzeń publiczna, w której funkcjonują i której wpływowi podlegają wszystkie grupy społeczne i wiekowe.
Podkreślam wymiar instytucjonalny ze względu na dwa paradoksy widoczne w debacie publicznej odnoszącej się do środowiska cyfrowego. Pierwszy dotyczy postrzegania tego obszaru jako sfery pozbawionej materialności. Towarzyszy temu akcentowanie aspektów informacyjnego – infosfery – oraz społecznościowego. Na szczególną zdolność redefiniowania znaczeń przez zarządzających wskazuje Jan Kreft, który za sztandarowy przykład uznaje użycie terminu „media społecznościowe”. Tego typu „wspólnoty” pozbawione są jednak kluczowych elementów konstytuujących przynależność do nich – poczucia tożsamości i wspólnych doświadczeń, które do nich prowadzą[3]. Sformułowania odnoszące się do „społeczności” kierują naszą uwagę w stronę wartości z obszaru solidarności i dobra wspólnego. Tymczasem w praktyce znacznie częściej – udowadnia Kreft – mamy do czynienia z nagromadzeniem postaw indywidualistycznych, koncentrujących się na silnym „ja”.
Drugi paradoks związany jest ze zdecydowanym definiowaniem się przez przedsiębiorstwa cyfrowe w dyskursach odnoszących się do polityk publicznych jako „platformy”. Kreft uzasadnia, że jest to działanie mające na celu gubienie konotacji medialnych na rzecz technologicznych, uzależnionych do bieżących zjawisk, trendów, mód, innowacji[4]. Zabieg ten ma wskazywać na neutralność i egalitarność, ale też poczucie rozproszenia i nieuchwytności. W mojej ocenie ucieczka od tożsamościowych autodefinicji medialnych na rzecz funkcji technicznych i infrastrukturalnych, jakie niesie ze sobą termin „platforma”, związana jest również z brakiem woli do brania na siebie odpowiedzialności za treści oraz kształtowanie kultury zachowań społecznych, wpływanie na dobrostan jednostek i społeczności.
W pułapce przemocy
Jestem pewien, że czytelniczki i czytelnicy tego raportu doceniają takie funkcje mediów społecznościowych, jak edukacja, rozwój osobisty, podtrzymywanie relacji społecznych, emancypacja czy rozrywka. Niemniej, środowisko cyfrowe trudno uznać dzisiaj za przestrzeń przyjazną. Z raportu NASK Nastolatki 3.0 wiemy, że prawie połowa młodych ludzi spotkała się w internecie z sytuacjami wyzywania i atakowania osób znajomych. Na poniżanie i ośmieszanie wskazuje 1/3 badanych. Prawie 33 proc. przyznaje, że otrzymało czyjeś nagie lub półnagie zdjęcie. Zdecydowana większość (68,4 proc.) za główny problem internetu uznaje mowę nienawiści, a 43,7 proc. twierdzi, że w sieci nie da się rozróżnić informacji prawdziwych od nieprawdziwych. Dodatkowo połowa nie jest zainteresowana wiarygodnością profili oraz ich autorów w mediach społecznościowych. Niemal połowa (46,7 proc.) deklaruje wysoki i ponadprzeciętny poziom ekspozycji na treści antyspołeczne w mediach społecznościowych[5]. Podobnie niepokojące zjawisko wskazuje raport Youth Skills. Na tle pięciu innych badanych krajów polska młodzież charakteryzuje się najwyższym poziomem ekspozycji na intencjonalną mową nienawiści oraz treści krzywdzące[6]. Aż 1/3 badanych nastolatków podejmuje wyzwania internetowe, w których naraża się zdrowie i życie własne lub innych, 1,3 mln korzysta z najpopularniejszego serwisu pornograficznego, a 800 tys. – hazardowego. Więcej niż co czwarty respondent ogląda patostreamy[7].
Szczególną formą przemocy jest krzywdzenie seksualne. Z badań Fundacji Dajemy Dzieciom Siłę wynika, że 26 proc. dzieci doświadczyło krzywdzenia bez kontaktu fizycznego[8]. Międzynarodowa organizacja We Protect w swoich raportach wskazuje, że prawdopodobieństwo doświadczenia w dzieciństwie jednej z forma seksualnej przemocy w sieci wynosi w Polsce 69 proc. W 57 proc. dotyczy to otrzymywania treści o charakterze seksualnym od osoby dorosłej. Ponad połowa uczestników badania (51 proc.) została poproszona online o zrobienie czegoś o charakterze seksualnym, z czym czuła się niekomfortowo lub czego nie chciała zrobić. W 30 proc. przypadków osoba dorosła prosiła o zachowanie w tajemnicy części interakcji o charakterze seksualnym, a 21 proc. respondentów zadeklarowało, że ktoś bez uzyskania ich zgody udostępnił im swoje zdjęcia o wydźwięku jednoznacznie seksualnym[9]. Z badań [10] przeprowadzonych przez Państwową Komisję ds. przeciwdziałania seksualnemu wykorzystaniu małoletnich poniżej lat 15. (PKDP) i dotyczących 245 postępowań karnych (345 spraw), wynika, że największa liczba przestępstw (122, stanowiąca 35,36 proc. wszystkich analizowanych spraw) miała miejsce właśnie w internecie.[11]
Lawinowo rośnie liczba materiałów ukazujących seksualne krzywdzenie dzieci, tzw. CSAM (child sexual abuse material). W raporcie za 2023 rok We Protect (za Internet Watch Foundation) podaje, że od 2020 roku o 87 proc. wzrosła liczba materiałów CSAM (do 32 mln w 2023 roku) i aż o 360 proc. tego typu nagrań, których autorami były dzieci w wieku 7−10 lat (często pod wpływem manipulacji, zastraszania, szantażu)[12]. Rok 2022 był w tym aspekcie przełomowy − 64 proc. wszystkich materiałów CSAM wytworzone zostało przez same dzieci w wieku 7−10 lat. W przypadku dziewczynek było to aż 94 proc., w przypadku chłopców − 41 proc.[13].
Analizująca dane IWF Katarzyna Staciwa zwraca uwagę na fakt, że 55 proc. grupy wiekowej 11−13 lat (najczęściej występującej w CSAM) to dziewczynki. W przedziale 7−10 lat od 2022 roku nastąpił przyrost takich materiałów CSAM o 65 proc., ale kiedy porównamy wyniki z rokiem 2019, to odnotujemy wzrost aż o 1816 proc. Z tego aż 41 proc. materiałów kwalifikuje się do najbardziej brutalnej kategorii A, w której uwzględniono obrazy ukazujące stosunki penetracyjne, w tym elementy sadyzmu oraz udział zwierząt. Autorka opracowania pisze też o raportach IWF dotyczących dzieci w wieku 3−6 lat. W tym przypadku do kategorii najbardziej brutalnych zakwalifikowano 15 proc. materiałów, a na 28 proc. widoczne było także przynajmniej jedno dziecko towarzyszące. Jednym z czynników umożliwiających tak małym dzieciom wytwarzanie i przesyłanie zdjęć oraz materiałów wideo jest – na co wskazują eksperci IWF – używanie przez nie sprzętu posiadającego aparaty czy kamery z dostępem do internetu i aplikacji, z których w sposób intuicyjny, choć całkowicie nieświadome wagi podejmowanych aktywności, korzystają coraz młodsi[14].
Na krzywdzenie w internecie najbardziej narażone są dzieci z grup mniejszościowych i marginalizowanych ze względu na orientację seksualną, pochodzenie etniczne, rasę czy niepełnosprawność[15]. Czynniki ryzyka są w tym zakresie dokładnie takie same jak w krzywdzeniu kontaktowym, konsekwencje w postaci traum również. W bardzo szybkim tempie rośnie zjawisko finansowego szantażowania dzieci upublicznieniem materiałów intymnych (tzw. sextortion). Amerykańska instytucja National Center for Missing & Exploited Children (NCMEC), obsługująca przestrzeń globalną (jedynie ok. 4 proc. raportów dotyczy USA) odnotowała w 2022 roku aż 10,7 tys. zgłoszeń sklasyfikowanych jako motywowane finansowo, przy czym rok wcześniej było ich 139[16]. W 2023 roku nastąpił kolejny wzrost do 26,7 tys. powiadomień o tego typu zdarzeniach[17]. Polski zespół Dyżurnet.pl NASK podaje, że w 2024 roku otrzymał ponad trzy razy więcej zgłoszeń dotyczących CSAM niż rok wcześniej. Informacje na temat 9,3 tys. tego typu zdarzeń przekazano Policji (średnia w poprzednich latach wynosiła 150), a do dostawców usług internetowych przekierowano 9,8 tys. zgłoszeń (średnia w poprzednich latach wynosiła 600)[18].
Katarzyna Staciwa za raportami Europolu wskazuje, że rośnie zagrożenie ze strony osób wykorzystujących komunikację szyfrowaną (komunikatory) do wymiany materiałów CSAM, a także kontaktowania się z osobami małoletnimi oraz całymi sieciami. Jedną z form, na którą zwraca uwagę przywołana badaczka, jest działanie zbliżone do mechanizmu funkcjonowania sekt: „charyzmatyczni liderzy stosują oszustwo i manipulację, aby uczynić inne osoby posłusznymi i zależnymi. Osoby te są zmuszane do udostępniania zdjęć lub wideo o ekstremalnym oraz/lub seksualnym przekazie, często okaleczając się podczas sesji na żywo, zaś ich oprawcy zgłaszają coraz to nowe żądania w poszukiwaniu rozrywki i satysfakcji seksualnej. Znamienne jest to, że sprawcy działający w takich grupach byli często identyfikowani jako nieletni”[19].
Warto wziąć także pod uwagę, że bardzo skrócił się czas uwodzenia (tzw. grooming) dziecka w przestrzeni gier. Średni czas wchodzenia w konwersację ocenianą jako o podtekście seksualnym i wysokiego ryzyka wynosi obecnie 45 minut, a niekiedy do tego typu interakcji dochodzi po zaledwie 19 sekundach. Najdłuższy czas od wejścia w kontakt do relacji zidentyfikowanej jako groomingowa wyniósł 28 dni[20]. Szukając powodów tak krótkiego czasu uwodzenia, należy wziąć pod uwagę także ślad cyfrowy samych dzieci – wielość informacji o nich dostępna w sieci na skutek braku adekwatnej ochrony wizerunku i innych danych osobowych. Sprawca ma łatwy dostęp do tego typu materiałów, co może pomagać w budowaniu wiarygodności i wyborze technik manipulacji.
Dzięki włączaniu w badania przez organizacje międzynarodowe dorosłych potencjalnych sprawców poszukujących kontaktu z dziećmi oraz materiałów CSAM wiemy, że 77 proc. z nich napotkało je lub linki do nich w oficjalnej sieci: 32 proc. wskazało strony pornograficzne, 29 proc. – platformy społecznościowe, 12 proc. – regularne witryny internetowe, 12 proc. – aplikacje komunikatorów[21].
Odpowiadając na pytanie o to, gdzie poszukują kontaktu z dziećmi, 31 proc. z nich wskazało platformy społecznościowe oraz gry online. Wśród wymienianych znajdują się praktycznie wszystkie znane z codziennego użytkowania serwisy, w tym: TokTok, Facebook, Snapchat, Twitter (obecnie X), WhatsApp, Minecraft, Roblox, Instagram, Discord[22].
Przemocowe algorytmy i ochrona danych
Zjawiskiem wymagającym odrębnego potraktowania są algorytmy tworzone i używane przez firmy zarządzające platformami społecznościowymi. Obecnie nie podlegają one nawet najmniejszej kontroli społecznej, choć ich wpływ na funkcjonowanie ludzi jest przemożny. Oparte są na nich systemy rekomendacyjne treści oraz przekazów reklamowych, z którymi internauci mają nieustający i silnie spersonalizowany kontakt. Nowe światło na ich szkodliwy wpływ na zdrowie psychiczne, a szerzej na kondycję psychospołeczną rzucają wnioski z raportów wyspecjalizowanych organizacji, treści zeznań osób zarządzających platformami złożone w Senacie USA, wysłuchań w parlamencie brytyjskim, a także toczących się w Komisji Europejskiej oraz niektórych krajach postępowania.
Fundacja Panoptykon w swoim raporcie pt. Algorytmy traumy pokazuje, że na platformie Facebook osobie z dolegliwościami psychosomatycznymi proponowane są treści, które głównie pogłębiają lęki. Po oznaczeniu braku chęci otrzymywania tego typu materiałów, ich liczba jeszcze wzrosła[23]. Pogarszanie stanu emocjonalnego użytkowników poszukujących informacji dotyczących zdrowia to jeden z wielu przykładów ogromnego wpływu algorytmów na życie jednostek i grup społecznych[24]. „W ciągu niespełna dwóch miesięcy badania w feedzie użytkowniczki pojawiło się ponad 2,5 tys. postów»proponowanych dla ciebie«– co stanowiło 22% wszystkich wyświetlonych treści. Ponad 56 proc. postów z analizowanej grupy (1416) dotyczyło tematyki wskazanej przez badaną jako toksyczna”[25]. Wielokrotnie dowodzone było, że platformy społecznościowe, w tym Facebook i YouTube, preferują pobudzanie bolesnych emocji, premiowanie mowy nienawiści i toksycznego sposobu komunikowania się, radykalizowania poglądów[26]. Na takim stanowisku stoi także Frances Haugen, sygnalistka pracująca wcześniej w Facebooku i Instagramie, która zeznawała przed Senatem USA oraz uczestniczyła w wysłuchaniach w parlamencie brytyjskim[27]. Wskazała ona na praktyki i decyzje podejmowane przez świadome destrukcyjnego wpływu społecznego kierownictwo firmy. W jej ocenie dzieci stanowią szczególnie ważną grupę odbiorców. Ich przyciągnięcie we wczesnym wieku zwiększa szanse na wzrost liczby użytkowników. Zeznając w Senacie USA, Hogan przyznała, że firma intencjonalnie – wbrew zapisom prawa i regulaminów – definiowała osoby poniżej 13. roku życia jako grupę docelową swoich działań. Zarządzający posiadali także wiedzę pozyskiwaną w wewnętrznych badaniach o związku między zaburzeniami psychicznymi, na przykład anoreksją, a używaniem Instagrama[28]. Od dawna na model biznesowy platform cyfrowych jako zagrożenie dla praw człowieka, w tym do prywatności, niedyskryminacji i równego traktowania, wskazywała Amnesty International[29]. W raporcie opublikowanym w 2023 roku opisano działanie algorytmów TikToka na podstawie badań przeprowadzonych na użytkownikach z krajów o największej populacji na tej platformie – Filipin, Kenii i USA. „Badania wykazały, że po 5−6 godzinach na platformie prawie połowa proponowanych filmów była związana ze zdrowiem psychicznym i potencjalnie szkodliwa. To około 10 razy więcej niż na kontach użytkowników/użytkowniczek niezainteresowanych zdrowiem psychicznym.
Syndrom »króliczej nory« pojawiał się jeszcze szybciej, gdy badacze własnoręcznie przeglądali filmy związane ze zdrowiem psychicznym sugerowane kontom »marionetkowym« udającym 13-letnich użytkowników/użytkowniczki”[30]. Po wpadnięciu w „króliczą norę”, czyli proponowaniu przez algorytm coraz to nowych treści, coraz mniej lub w ogóle niemoderowanych, i powodujących wydłużanie się czasu spędzanego w serwisie, na kontach osób wyświetlały się materiały zawierające porady samobójcze, romantyzujące i estetyzujące ten rodzaj śmierci[31].
W raporcie fundacji Życie Warte Jest Rozmowy pt. Zrozumieć, aby zapobiec. Zachowania samobójcze wśród dzieci i młodzieży wzmożoną aktywność dzieci w internecie umieszczono wśród bezpośrednich i pośredników czynników ryzyka zachowań suicydalnych. Jako najważniejsze czynniki bezpośrednie wskazano: ekspozycję na treści autodestrukcyjne, wpływ algorytmów mediów społecznościowych, opcję zawiązywania paktów samobójczych w sieci, podżeganie do zachowań samobójczych, precyzyjne opisywanie prób samobójczych oraz romantyzowanie i gloryfikację tego rodzaju śmierci[32]. Za najważniejsze czynniki pośrednie uznane zostały: wpływ mediów społecznościowych na obniżoną samoocenę nastolatków, cyberprzemoc jako nowy rodzaj przemocy doświadczanej bez względu na położenie geograficzne, deficyty relacji, poczucie samotności i braku wsparcia, desensytyzacja agresji, uzależnienia od korzystania z sieci i mediów społecznościowych, dostęp do pornografii wpływający na brutalizację życia i obrazu życia seksualnego, ciągłe porównywanie się z innymi[33].
W ubiegłym roku Federalna Komisja Handlu USA poinformowała o analizie w zakresie polityk ochrony prywatności największych platform cyfrowych oraz świadczących usługi wideo streamingu, wśród których znalazły się: Amazon (Twitch), Meta (Facebook), YouTube, X Corp, Snap, TikTok (ByteDance), Discord, Reddit i WhatsApp. Jeden z najważniejszych wniosków dotyczył braku adekwatnej ochrony dzieci i młodzieży, a tym samym omijania amerykańskich regulacji w tym zakresie. W raporcie zwrócono uwagę, że osoby nastoletnie traktowane są w systemie bezpieczeństwa platform jak dorośli, co jest przecież nie do zaakceptowania z punktu widzenia granicy dorosłości wynoszącej 18 lat.
Najbardziej dojmujący był jednak wniosek dotyczący braku ochrony najmłodszych dzieci, gdyż – zgodnie z oficjalnymi odpowiedziami osób zarządzających platformami, podkreślanymi w raporcie przez Federalną Komisję – według przepisów użytkownikami nie mogą być osoby poniżej lat 13. Amerykańscy urzędnicy we wnioskach końcowych wskazali na swoistą hipokryzję właścicieli platform społecznościowych i wyraźnie zaznaczyli brak zgody na ignorowanie obecności dzieci w tym środowisku[34].
Warto wskazać, że również Komisja Europejska wszczęła postępowanie przeciwko firmie Meta oraz operatorowi platformy TikTok, podejrzewając je o naruszenie Aktu o Usługach Cyfrowych (DSA). Pierwszemu zarzuca się przede wszystkim „zwodniczą reklamę”[35]. W przypadku TikTok w grę wchodzą także zarzuty dotyczące dzieci: „Postępowanie będzie koncentrować się na kilku obszarach. Chodzi m.in. o wypełnienie obowiązków DSA związanych z oceną i ograniczaniem ryzyk systemowych pod kątem rzeczywistych lub przewidywalnych negatywnych skutków wynikających z konstrukcji systemu platformy TikTok, w tym systemów algorytmicznych, mogących stymulować uzależnienia behawioralne […]. Ocena taka jest wymagana, aby przeciwdziałać potencjalnym zagrożeniom dla korzystania z podstawowego prawa do dobrego samopoczucia fizycznego i psychicznego danej osoby, poszanowania praw dziecka, a także wpływu na procesy radykalizacji. Komisja Europejska wskazuje ponadto, że stosowane w tym zakresie środki łagodzące, w szczególności narzędzia weryfikacji wieku wykorzystywane przez TikTok w celu zapobiegania dostępowi nieletnich do nieodpowiednich treści, mogą nie być rozsądne, proporcjonalne i skuteczne”[36].
Ponura rzeczywistość – pierwsze konkluzje
Wskazane wyżej wnioski i źródła wybrane zostały wyłącznie jako przykłady pokazujące istnienie niespójności między deklaracjami publicznymi, prawnymi i społecznymi oraz zobowiązaniami politycznymi a praktyką wskazywaną w wybranych raportach instytucji publicznych i organizacji międzynarodowych oraz badaniach akademickich. Zdaję sobie sprawę z faktu, że część z nich, jak badanie Amnesty International, dotyczy użytkowników z innych kontynentów, w tym USA. W oczywisty sposób śledztwo Federalnej Komisji Handlu weryfikuje metody zarządcze na podstawie prawa amerykańskiego. Niemniej, uwzględniając różnice w politykach zarządzania poszczególnych regionów, wciąż należy pamiętać, że mamy do czynienia z korporacjami globalnymi. Zatem zarządcze i kulturowe DNA stanowi wspólny mianownik i do pewnego stopnia praktyki te można uogólnić, a w najbardziej optymistycznym podejściu – potraktować jako praktyki wysokiego ryzyka o dużym prawdopodobieństwie wystąpienia także w Europie. To właśnie fakt zaistnienia wielu z nich stwierdzony został przez Komisję Europejską prowadzącą właściwe postępowania. Trudno także nie widzieć pewnych podobieństw między wnioskami z raportów Amnesty International Driven into the Darkness oraz Fundacji Panoptykon Algorytmy traumy. Pamiętać należy, że wspomniana już Frances Haugen opisywała właśnie globalną politykę przedsiębiorstwa, w którym swego czasu pełniła istotną rolę.
Jak ponury żart brzmi tłumaczenie przesłane amerykańskim urzędnikom przez platformy cyfrowe, w którym stwierdzono, że brak ochrony dzieci poniżej 13. roku życia wynika z braku ich obecności w serwisach, na co wskazują przepisy prawa.
Nastolatki w dni powszednie spędzają w internecie ponad 5 godzin i 36 minut i znacząco więcej, bo ponad 6 godzin i 16 minut, w dni wolne od zajęć szkolnych. Czas ten z roku na rok systematycznie się wydłuża. Ponad 1/4 (25,8 proc.) respondentów z tej grupy wiekowej posiada od 5 do 8 kont na platformach społecznościowych, a 36 proc. − powyżej 8. W mediach społecznościowych średnio spędzają dziennie 4 godziny i 12 minut[37]. Szczegółowe dane opisujące funkcjonowanie młodych ludzie w sieci dostarcza niniejszy raport, a w szczególności rozdziały autorstwa Jadwigi Przewłockiej i Anny Miotk oraz Aleksandry Załęskiej.
Analizy obu autorek i ich zespołów wskazują na stan faktyczny dotyczący Polski. Przypomnę tylko kilka z przytoczonych danych: z internetu korzysta 2,7 mln 7−14-latków (83 proc. wszystkich młodych ludzi w tym wieku), 2,6 mln z nich wykorzystuje do tego urządzenia mobilne, ich głównymi przestrzeniami w sieci są platformy społecznościowe i streamingowe, aż 92 proc. korzysta z komunikatorów. Spójrzmy na osoby poniżej 13. roku życia, czyli takie, których w teorii w tych przestrzeniach nie ma. Statystycznie 1/3 dzieci w Polsce w wieku 7-12 lat korzysta z TikToka (760 tys.), niewiele mniej z Facebooka (580 tys.), a 1/8 z Instagrama (290 tys.). Jeśli chodzi o komunikatory, Messengera używa 900 tys. przedstawicieli tej grupy wiekowej a Whatsappa 700 tys.[38]
Konkluzje końcowe
Podsumowując, chcę ponownie zwrócić uwagę na instytucjonalny charakter tworzonej przez media cyfrowe sfery publicznej. Od instytucji oczekiwać musimy dochowania wszelkiej staranności w zakresie poszanowania praw człowieka i praw dziecka, zarządzania zgodnością[39], etyką, raportowania ryzyk i zarządzania nimi, transparentności procesów zarządczych, właściwych regulacji nastawionych na ochronę interesu społecznego i wielu innych narzędzi typowych dla wielkich podmiotów o ogromnej sile rażenia. Właściwą miarą instytucji powinien być ich stosunek do grup najbardziej wrażliwych i najbardziej bezbronnych. Z natury rzeczy taką właśnie grupą są dzieci.
Uwzględniając przedstawioną wyżej analizę oraz wnioski płynące z opracowania ekspertek Uniwersytetu Warszawskiego, PBI i firmy Gemius, należy sobie zadać pytania o przyczyny braku spójności w deklaracjach wielu interesariuszy środowiska cyfrowego oraz o konsekwencje prawne, finansowe i społeczne, które powinny zostać podjęte w celu kompensowania kosztów społecznych, ekonomicznych i politycznych, jakie ponoszone są przez osoby indywidualne i społeczeństwo.
Nie mam wątpliwości, że w poszukiwaniach odpowiedzi na tak postawione pytania należy użyć kategorii przemocy instytucjonalnej, której w największym stopniu doświadczają osoby małoletnie – z wielu powodów najbardziej narażone na konsekwencje. Rozumieć przez nią należy „każde zamierzone działanie instytucji, które ujemnie wpływa na zdrowie, rozwój fizyczny lub psychospołeczny”[40]. Może być ona odzwierciedlona w przepisach prawa oraz normach społecznych, pogłębiając krzywdę określonych grup społecznych. Zdarza się, że przemoc ta jest celem sama w sobie lub − jak w omawianym przypadku − celem pośrednim. W pełni uzasadnione wydaje się postawienie hipotezy, że przedsiębiorstwom i ich właścicielom oferującym usługi w postaci platform społecznościowych i innym podmiotom, jej używanie służy maksymalizacji zysku. Poza samymi big techami najpotężniejszymi graczami w tej przestrzeni są firmy z branży reklamy i marketingu. To wskutek modelu stworzonego przez big techy – właścicieli platform (ale także innych „mediów cyfrowych”) – oraz agencje reklamowe, marketingowe i domy mediowe, całe środowisko cyfrowe, a więc miejsce życia i rozwoju młodego człowieka, działa przede wszystkim w paradygmacie komercyjnym. Oznacza to w praktyce, że każda najmniejsza aktywność – czas poświęcany danemu serwisowi, uwaga, każda informacja, komentarz, zachowanie i dana osobowa dziecka – jest natychmiast monetyzowana i służy powiększaniu zysku ich właścicieli.
Człowiek, a w szczególności osoba małoletnia, sprowadzony jest w tej sytuacji do roli środka. Podejście to Antoni Kępiński nazywał „technicznym spojrzeniem na drugiego człowieka”[41] i przestrzegał przed tym, aby wartości innych ludzi nie redukować do tych związanych z efektywnością procesu produkcji i nie pomijać, a podkreślać cechy typowo ludzkie. Shoshana Zuboff, uwzględniając funkcjonowanie gospodarki cyfrowej, stwierdza, że człowiek wraz z jego danymi osobowymi jest „darmowym surowcem do produkcji danych behawioralnych”[42], który umożliwia optymalizację sprzedaży usług i produktów, przewidywanie decyzji zakupowych, aktywności w sieci oraz nieustanne wytwarzanie nowych trendów rynkowych.
Używając kategorii przemocy instytucjonalnej, sytuację należy poddać weryfikacji pod trzema względami: wiedzy, postaw i działań oraz skutku[43].
Wiedza i postawa: Czy kluczowi interesariusze posiadają właściwą wiedzę na temat społecznych kosztów stosowanych modeli zarządzania i polityk publicznych, naruszeń, łamania prawa i destrukcyjnego wpływu wybranych narzędzi technologicznych? Jaką postawę przyjmują pod wpływem otrzymywanej wiedzy?
Działania: Jakie działania zmierzające do naprawy błędów są podejmowane – wzmacnianie autonomii i podmiotowości małoletnich użytkowników, ulepszanie systemów chroniących prywatność i dobrostan oraz przeciwdziałających prawdopodobieństwu wystąpienia przemocy seksualnej, fizycznej, psychicznej, cyberprzemocy? W jakim zakresie w modelach zarządzania uwzględniana jest zasada najlepiej pojętego interesu dziecka (dobra dziecka)?
Skutek: W jakim stopniu wiedza oraz postawy i działania podejmowane przez instytucje doprowadziły do optymalnych rozwiązań w zakresie ochrony osób małoletnich przed krzywdzeniem?
Wszystkie przytoczone w analizie, publicznie znane od wielu lat dane i interwencje organów państw, organizacji międzynarodowych, instytucji krajowych, think tanków oraz uczelni wskazują na to, że takie podmioty, jak właściciele platform cyfrowych, branży reklamy i marketingu oraz wielu innych przedsiębiorstw, posiadając pełną wiedzę, nie podejmują optymalnych działań naprawczych i decyzji uwzględniających zasadę dobra dziecka. W konsekwencji, jak wykazano na podstawie danych przytaczanych w niniejszym raporcie, młodzi ludzie wciąż doświadczają skutków tej trwającej od lat nieakceptowalnej i krzywdzącej dla nich sytuacji.
Intencją przedsięwzięcia, którego mam przyjemność być współorganizatorem, nie jest poszukiwanie kozłów ofiarnych ani uciekanie się do kategorii winy. Znacznie bliższe jest nam odwoływanie się do wartości dobra wspólnego i wspólnej odpowiedzialności. Stan spraw zaprezentowany w raporcie wskazuje na odpowiedzialność dużej liczby interesariuszy. Oczywiście stopień odpowiedzialności uzależniony jest od posiadanych zasobów, istoty działania danego podmiotu oraz skali władztwa. Niemniej, poza oczywistymi i wskazanymi tu przedsiębiorstwami cyfrowymi (big techami), a także branżą reklamy i marketingu, odpowiedzialność spoczywa na wszystkich podmiotach – publicznych i prywatnych – których modele biznesowe uwzględniają wykorzystanie mediów cyfrowych (działania marketingowe, reklamowe, sponsoringowe, sprzedażowe, usługi). Ogromnie ważną rolę pełnią tu władze polityczne i organizacje międzynarodowe, w tym regionalne (np. Komisja Europejska i Parlament Europejski), rządy i parlamenty poszczególnych państw oraz organy kontrolne, rzecznicze, a także środowiska nauki i społeczeństwo obywatelskie.
Raport „Internet dzieci” – pobierz.
O raporcie:
Wnioski z publikacji „Internet dzieci. Raport z monitoringu obecności dzieci i młodzieży w Internecie.” zostały premierowo zaprezentowane w Sejmie RP, 4 marca 2025 r. Partnerami projektu są Wydział Dziennikarstwa, Informacji i Bibliologii UW a także Sejm RP. Raport powstał na podstawie danych z badania Mediapanel oraz panelu badawczego Gemius, reprezentatywnego dla populacji Polaków 7-75.
Bilbiografia:
[1] W. Pisarek, Słownik terminologii medialnej, Universitas, Kraków 2006, s. 4.
[2] N. Postman, Technopol, Wydawnictwo Muza, Warszawa 2004, s. 31.
[3] J. Kreft, Władza platform, Universitas, Kraków 2022, s. 73−74.
[4] Tamże, s. 81.
[5] R. Lange (red.), A. Wrońska, A. Ładna, K. Kamiński, M. Błażej, A. Jankiewicz, K. Rosłaniec, Nastolatki 3.0. Raport z ogólnopolskiego badania uczniów i rodziców, NASK, Warszawa 2023, s. 9. R. Lange (red.), A. Wrońska, A. Ładna, K. Kamiński, M. Błażej, A. Jankiewicz, K. Rosłaniec, Nastolatki 3.0…
[6] L. D’Haenens, W. Joris, E. Bossens, Synthesis of ySKILLS results, s. 10, https://doi.org/10.5281/zenodo.10255614 (dostęp: 10.02.2025).
[7] R. Lange (red.), A. Wrońska, A. Ładna, K. Kamiński, M. Błażej, A. Jankiewicz, K. Rosłaniec, Nastolatki 3.0…, s. 9.
[8] K. Makaruk, K. Drabarek, A. Popyk, S. Wójcik, Diagnoza przemocy wobec dzieci w Polsce 2023, Fundacja Dajemy Dzieciom Siłę, Warszawa 2023, s. 6.
[9] We Protect, Szacunki dotyczące narażenia dzieci na krzywdy seksualne w sieci i ich czynników ryzyka, s. 3−4, https://www.weprotect.org/wp-content/uploads/WeProtect_Economist-Impact_European-online-sexual-harms-study_Poland-country-profile_translation.pdf (dostęp: 10.02.2025).
[10] PKDP, Pierwszy raport Państwowej Komisji do spraw wyjaśniania przypadków czynności skierowanych przeciwko wolności seksualnej i obyczajności wobec małoletniego poniżej lat 15., Warszawa 2021, s. 112.
[11] Warto nadmienić, że według badań PKDP największą grupą sprawców przestępstw seksualnych wobec małoletnich nie byli sprawcy preferencyjni. Ci stanowili niejednorodną grupę 8 proc. wszystkich sprawców. Zgodnie z wieloma innymi wynikami badań najczęściej krzywdzą osoby o tzw. motywacji zastępczej. Jeśli chodzi o sprawców przestępstw internetowych statystyki ogólne są podobne. Spośród spraw badanych przez PKDP najczęściej dokonywali ich w sieci sprawcy regresywno-frustracyjni (45 proc.) i moralnie nieodróżniający (23 proc.). Źródło: PKDP, Pierwszy raport Państwowej Komisji…, s. 110.
[12] We Protect, Global Threat Assessment 2023, s. 4, https://www.weprotect.org/wp-content/uploads/Global-Threat-Assessment-2023-English.pdf (dostęp: 10.02.2025).
[13] IWF, ‘Self-generated’ child sexual abuse, https://www.iwf.org.uk/annual-report-2023/trends-and-data/self-generated-child-sex-abuse/ (dostęp: 10.02.2025).
[14] K. Staciwa, System przeciwdziałania przemocy seksualnej wobec małoletnich w środowisku cyfrowym – opis i kierunkowe rekomendacje działań, Biuro Ekspertyz i Oceny Skutków Regulacji, Kancelaria Sejmu RP, Warszawa 2024, s. 15.
[15] Tamże, s. 10.
[16] Tamże, s. 20.
[17] Tamże, s. 12.
[18] NASK, 20 lat walki z wykorzystywaniem dzieci w sieci! Dyżurnet.pl dba o ich bezpieczeństwo, https://nask.pl/magazyn/20-lat-walki-z-wykorzystywaniem-dzieci-w-sieci-dyzurnet-pl-dba-o-bezpieczenstwo-najmlodszych/ (dostęp: 10.02.2025).
[19] K. Staciwa, System przeciwdziałania…, dz. cyt., s. 12.
[20] Tamże, s. 24.
[21] Protect Children, What Drives Online Child Sexual Abuse Offending? Understanding Motivations, Facilitators, Situational Factors, and Barriers, s. 16−17, https://c5629789-604e-4d02-9190-059599b68044.usrfiles.com/ugd/bd9606_46894722843345d2b7c2ac675b357bf1.pdf (dostęp: 10.02.2025).
[22] Tamże, s. 17.
[23] Fundacja Panoptykon, Martwisz się o zdrowie? Facebook nie pozwoli ci o tym zapomnieć, https://panoptykon.org/martwisz-sie-o-zdrowie-facebook-nie-pozwoli-ci-o-tym-zapomniec (dostęp: 10.02.2025).
[24] Fundacja Panoptykon, Algorytmy traumy. Sprawdziliśmy, czy możesz kontrolować reklamy na Facebooku, https://panoptykon.org/algorytmy-traumy (dostęp: 10.02.2025).
[25] Fundacja Panoptykon, Martwisz się o zdrowie…, dz. cyt.
[26] L. Munn, Angry by design: toxic communication and technical architectures, „Humanities and Social Sciences Communications” 2020, nr 7(53), https://doi.org/10.1057/s41599-020-00550-7 (dostęp: 10.02.2025).
[27] Whistle-Blower Says Facebook ‘Chooses Profits Over Safety’, https://www.nytimes.com/2021/10/03/technology/whistle-blower-facebook-frances-haugen.html (dostęp: 10.02.2025).
[28] D. Milmo, K. Paul, Facebook harms children and is damaging democracy, claims whistleblower, https://www.theguardian.com/technology/2021/oct/05/facebook-harms-children-damaging-democracy-claims-whistleblower?CMP=Share_iOSApp_Other (dostęp: 10.02.2025).
[29] Amnesty International, Kanał „Dla Ciebie” na TikToku rozpowszechnia wśród młodych osób treści szkodliwe dla zdrowia psychicznego, TikTok rozpowszechnia treści szkodliwe dla zdrowia psychicznego – Amnesty International – Bronimy praw człowieka (dostęp: 10.02.2025).
[30] Tamże.
[31] Tamże.
[32] H. Witkowska, L. Kicińska, J. Palma, M. Łuba, Zrozumieć, aby zapobiec 2024 – zachowania samobójcze wśród dzieci i młodzieży. II edycja raportu na podstawie danych KGP i serwisu www.zwjr.pl, Życie Warte Jest Rozmowy, Warszawa 2024, s. 16.
[33] Tamże, s. 17.
[34] Federal Trade Commission, A Look Behind the Screens. Examining the Data Practices of Social Media and Video Streaming Services, s. 5, https://www.ftc.gov/system/files/ftc_gov/pdf/Social-Media-6b-Report-9-11-2024.pdf (dostęp: 10.02.2025).
[35] Komisja Europejska, Komisja wszczyna formalne postępowanie przeciwko Facebookowi i Instagramowi na podstawie aktu o usługach cyfrowych, https://digital-strategy.ec.europa.eu/pl/news/commission-opens-formal-proceedings-against-facebook-and-instagram-under-digital-services-act (dostęp: 10.02.2025).
[36] bg, Komisja Europejska wszczyna formalne postępowanie przeciwko TikTok, https://www.wirtualnemedia.pl/artykul/komisja-europejska-postepowanie-tiktok (dostęp: 10.02.2025).
[37] R. Lange (red.), A. Wrońska, A. Ładna, K. Kamiński, M. Błażej, A. Jankiewicz, K. Rosłaniec, Nastolatki 3.0…, dz. cyt., s. 7.
[38] Liczby te są tak dojmująco duże, że zasadnym wydaje się być potrzeba przeprowadzenia badań odnoszących się do wpływu społecznego oraz wyliczenia kosztów finansowych, jakie ponosi osoba (oraz jej rodzina) doświadczająca różnych form przemocy w środowisku cyfrowych, a przede wszystkim we wskazanych wyżej platformach społecznościowych. W odniesieniu do zjawiska krzywdzenia seksualnego osób małoletnich i jego długookresowych konsekwencji, wyliczenia mogące stanowić metodologiczny punkt odniesienia znalazły się w raporcie PKDP z 2023 roku p.t. „Ile kosztuje cierpienie dziecka wykorzystanego seksualnie”.
[39] Zarządzanie zgodnością (compliance) – system zarządzania procesami dbającymi o zgodność ze wszystkimi obowiązującymi przepisami prawa (międzynarodowego, krajowego, wewnętrznego – regulaminów, kodeksów, dobrych praktyk, instrukcji i procedur postępowania), mający na celu dbałość o spójność między deklarowanymi wartościami a praktyką zarządczą, minimalizację ryzyka związanego z naruszeniem prawa gospodarczego, karnego, prawa pracy, praw człowieka i dziecka, ryzyka pociągnięcia do odpowiedzialności cywilnej oraz ochronę reputacji. Szczegółowe regulacje dotyczące compliance nadzorowane są przez organizacje międzynarodowe oraz giełdy światowe. Odwołują się do nich instytucje regulacyjne, organy ścigania i sądy.
[40] J. Brągiel, Pedagogika rodziny. Obszary i panorama problematyki, Adama Marszałek, Toruń 2005, s. 296, za: J. Helios, W. Jedlecka, Przemoc instytucjonalna wobec dzieci. Kulturowe uzasadnienie przemocy instytucjonalnej, Difin, Warszawa 2020, s. 9.
[41] A. Kępiński, Rytm życia, Sagittarius, Warszawa 1992, s. 64.
[42] S. Zuboff, Wiek kapitalizmu inwiligilacji, Wydawnictwo Zysk i S-ka, Poznań 2020, s. 19.
[43] Model zaczerpnięty z koncepcji upodmiotowienia (empowerment) (za: R. Szarfenberg, Empowerment − krótkie wprowadzenie, http://rszarf.ips.uw.edu.pl/pdf/Empowerment2.pdf, dostęp: 10.02.2025).