Parlament Europejski odrzucił kontrolę czatu. Tymczasem w Polsce wciąż działa lobbing na rzeczy inwigilacji obywateli pod pretekstem „ochrony dzieci”

fot. Wikimedia
Chociaż mawia się, że gdzie 2 Polaków, tam 3 opinie, to w jednej kwestii wszyscy zdają się być zgodni: trzeba bronić małoletnich przed przemocą seksualną. Jeśli zapytamy przeciętnego człowieka, czy jest za ochroną dzieci: przyklaśnie. Jeśli jednak tego samego człowieka poprosimy, by nigdy nie zamykał drzwi na klucz, aby umożliwić policji przeszukanie domu pod kątem śladów krzywdzenia nieletnich – pojawi się opór. A właśnie cyfrowego odpowiednika takich regulacji domagała się Komisja Europejska, forsując kontrowersyjny projekt kontroli czatu, którego temat, niczym bumerang, wciąż powraca.
Chodzi o Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające przepisy mające na celu zapobieganie niegodziwemu traktowaniu dzieci w celach seksualnych i jego zwalczanie, . Więcej na jego temat pisałam w artykule dla techspresso.cafe, sprawę poruszali także Michał „rysiek” Woźniak, Gosia Fraser, Matusz Chrobok czy Fundacja Panoptykon. Pomysł zakładający m. in. przymusowe skanowanie prywatnej komunikacji pod kątem szukania CSAM – (materiałów przedstawiających seksualne nadużycia wobec dzieci) określano mianem najbardziej krytykowanego projektu prawnego w historii UE. Słusznie podnoszono, że uderzy w prawo do prywatności, a jednocześnie sparaliżuje pracę organów, które już i tak cierpią na braki kadrowe i finansowe.
„W Irlandii co dziesiąty raport policji był fałszywym alarmem. I jednocześnie prawie 70% zgłoszeń i tak nie prowadziło do żadnego rzeczywistego przypadku. To nie jest ochrona dzieci. To jest zalewanie śledczych szumem, który uniemożliwia im badanie prawdziwych przypadków. Paradoks jest prosty: im więcej skanujesz, tym mniej skutecznie chronisz.” –podsumował Marcin Rybak.
Nawet polskie Ministerstwo Cyfryzacji, wywołane do tablicy, stanęło w obronie prywatności użytkowników, a państwo polskie sprzeciwiała się regulacji jeszcze za kadencji rządów PiS.
Gdy przez kolejne lata unijnym politykom nie udało się przeforsować kontroli czatu, duńska prezydencja zaproponowała tzw. „kompromis„. Skanowanie komunikacji miałoby być dobrowolne (podobny środek już stosowano) i zależne od woli dostawcy usługi. W praktyce firmy mogłyby monitorować komunikację między użytkownikami, ale nie byłyby do tego zmuszane. Mimo, że wcześniej trudno było osiągnąć porozumienie, to na taką wersję kontroli czatu zgromadzeni w Radzie UE ministrowie przystali. Był listopad 2025 roku.
Głosowanie w parlamencie traktowano już w zasadzie jako formalność. Jednak KE się przeliczyła. W marcu 2026 Parlament Europejski odrzucił kontrolę czatu. Dwukrotnie, bo do tematu wrócono. Europosłowie zaproponowali rezygnację z masowej inwigilacji i ograniczenie skanowania tylko do przypadków, w których istnieje podejrzenie popełnienia przestępstwa. I chociaż wydaje się, że wreszcie można odetchnąć z ulgą, to temat wciąż budzi emocje.
Kontrola czatu wciąż ma zwolenników
Po pierwsze – big techy wcale tak łatwo nie zrezygnują z inwigilacji, bo mają w niej swój własny cel. Po drugie – część posłów, w tym polskich, zagłosowała za rozporządzeniem. Mimo, iż Ministerstwo Cyfryzacji oficjalnie opowiedziało się przeciwko masowej inwigilacji, to nadmierna kontrola państwa wciąż ma w kraju wielu zwolenników.
Państwowa Komisja do spraw przeciwdziałania wykorzystaniu seksualnemu małoletnich otwarcie wyraziła zadowolenie, gdy tylko Rada UE osiągnęła porozumienie w sprawie kontroli czatu.
Krajowy Plan Przeciwdziałania Przestępstwom Przeciwko Wolności Seksualnej i Obyczajności na Szkodę Małoletnich na lata 2023-2026 zapowiada nie tylko utworzenie własnej, polskiej bazy materiałów przedstawiających seksualne wykorzystywanie nieletnich (tzw. CSAM). Analogiczne rozwiązanie posiada już Europol w postaci ICSE. International Child Sexual Exploitation database ma pomóc w ściganiu przestępstw oraz umożliwiać funkcjonariuszom identyfikację pokrzywdzonych dzieci. Zawiera tzw. hasze, wygenerowane na podstawie materiałów audiowizualnych z czynności operacyjnych i postępowań w sprawach dot. wykorzystania seksualnego.
Autorzy Krajowego Planu poszli jednak dalej – domagają się wzięcia pod lupę nie tylko zgłoszonych przestępstw czy treści, ale też proaktywnego przeszukiwania internetu. „Metodą pozwalającą na odwrócenie obecnego trendu rosnącej liczby treści publikowanych
w Internecie jest wdrożenie narzędzi technologicznych pozwalających na detekcję treści
CSAM już na wczesnym etapie ich publikacji, zanim zostaną zgłoszone przez użytkowników
Internetu. Jedynie takie podejście pozwoli na bardziej efektywną ochronę zarówno pokrzywdzonych, czyli dzieci, przed upublicznianiem materiałów pornograficznych z ich
udziałem, jak i przypadkowych użytkowników przed ekspozycją na tego typu treści.” – czytamy w dokumencie.
Zwolennikom szeroko zakrojonej inwigilacji pod pretekstem ochrony najmłodszych umyka jeden „drobny”, acz bardzo istotny „szczegół”: przeciętny obywatel nie popełnia przestępstw seksualnych wobec dzieci. Korzystanie z internetu nie powinno nikogo czynić „automatycznie podejrzanym”.
Nie każdy obywatel to przestępca
Nie każda rozmowa z dzieckiem to grooming. Można być szczerze zainteresowanym postępami bratanka w szkole czy dopytywać o jego zainteresowania, by sprawić mu bezinteresowny prezent pod choinkę. Można być przysłowiowym starszym sąsiadem, który nie nadąża za zmieniającym się światem i nie wie, że z 10latkami już nie wypada rozmawiać. Dziecko powinno dostać sygnał, że otrzyma pomoc, jeśli się po nią zgłosi – a nie, że każda jego rozmowa z dorosłym jest z automatu obiektem zainteresowań organów ścigania.
Nie każda rozmowa dwójki nastolatków, w której pada słowo „sex”, to wykorzystywanie seksualne. Młodzież może rozmawiać na ważne dla siebie tematy, odkrywać swoją tożsamość czy seksualność, czy po prostu wypełniać formularz po angielsku uwzględniający pytanie o płeć. W zdecydowanej większości przypadków taka rozmowa nie powinna trafiać na celownik policji. Ze szkolnej edukacji zdrowotnej ma zostać usunięta edukacja seksualna, ale zamiast tego proponuje się nastolatkom, że jeśli zaczną prowadzić rozmowy z podtekstem, będą rozmawiać o swojej orientacji czy pokażą coś więcej swojemu chłopakowi czy dziewczynie, to nagranie z rozmowy wyląduje w policyjnej bazie. I to ma być ta „ochrona nieletnich”?
Nie każda fotografia, na której przedstawiono nagie dziecko, ma podtekst seksualny. Rodzice nieraz uwieczniają ważne dla nich momenty, typu „pierwsza kąpiel dziecka”. Zdjęcie, na którym widać intymne części ciała, może teoretycznie świadczyć o złych zamiarach – zazwyczaj jednak będzie efektem troski opiekunów. Świeżo upieczeni rodzice nieraz szukają porad pielęgnacyjnych, widząc różne zmiany czy zaczerwienienia na skórze niemowlęcia. Czasami na forach dla rodziców, czasem u lekarza. Powszechnie znana jest historia ojca, któremu Google zablokował konto, bo ten, zaniepokojony zmianami skórnymi w okolicach intymnych swojego potomka, w ramach teleporady wysłał lekarzowi zdjęcie. Algorytmy Google’a zaklasyfikowały dokumentację medyczną jako CSAM. O tym konkretnym przypadku było głośno w mediach – a o ilu podobnych nie słyszeliśmy, bo nie przebiły się do opinii publicznej?
Matka karmiąca dziecko piersią nie molestuje go – a po prostu zapewnia mu bliskość i pokarm. Dlaczego w tym kontekście wspominam o kobietach karmiących? Bo FB nader ochoczo to właśnie karmienie piersią uważa za coś sprzecznego z regulaminem. W początkach macierzyństwa niejednokrotnie byłam świadkinią zmagać matek z platformą. Nie chodziło bynajmniej o sharenting, bo z tym Meta nie ma żadnego problemu, a twarzy niemowlaka nieraz nie było widać na fotografiach. Firmie Zuckerberga zdawał się przeszkadzać sam fakt, że ktoś wykonuje taką intymną czynność i się jej nie wstydzi. Oberwało się nawet jednej ze szpitalnych fundacji. Meta zawiesiła jej konto za zdjęcie profilowe, przedstawiające monumentalny pomnik matki karmiącej. W ramach humorystycznego protestu pomnikowi uszyto różowy biustonosz, żeby nie naruszać facebookowych standardów. Dla porównania, jako użytkowniczka wielokrotnie zgłaszałam platformom realnie niestosowne treści: czy to takie, w których rozbierano polityczki na wyborczych banerach, czy takie, gdzie jakaś firma promuje się zdjęciem, na którym osoba dorosła całuje dziecko w usta. I te treści jakoś nie naruszały standardów. W kwestii tego, co korporacje uważają za treści szkodliwe, to byłoby chyba na tyle.
Skąd takie dziwne interpretacje? Dlaczego big techy uznają dokumentację medyczną za CSAM, a realne nadużycia bagatelizują? Odpowiedzi jest kilka, ale jedna z nich jest banalnie prosta: to kontekst decyduje o tym, czy daną sytuację można zaklasyfikować jako CSAM – a technologia kontekstu nie rozumie.
W interesie dzieci, czy raczej polityków i firm technologicznych?
W państwie demokratycznym stanem domyślnym jest domniemanie niewinności. Nie ma (jeszcze…) przepisów, które wymuszałyby na budujących mieszkania deweloperach zamontowanie w każdym pomieszczeniu kamery monitoringu podłączonej do policyjnych systemów. Nawet, jeśli broniący kontroli czatu influencerzy nie mieliby problemu, by zapisy z ich prywatnego życia trafiały w obce ręce – to przeciętny człowiek ma jednak większą potrzebę prywatności.
Skąd więc takie poparcie dla kontroli czatu w niektórych kręgach? Wiele osób zwyczajnie nie rozumie technologii i daje się złapać na podchwytliwe pytania, na co słusznie zwrócił uwagę Marcin Rybak. W przypadku niektórych chodzi po prostu o zrobienie sobie reklamy – promując prawnego bubla zwyczajnie nabijają sobie zasięgi. Bycie popularnym w socialmediach „obrońcą dzieci” i grzanie na emocjach opłaca im się wizerunkowo i przekłada na liczbę lajków.
Jednak wielu gardłujących o „ochronie dzieci” nawet nie kryje, że zawodowo są związani z wdrażaniem czy promocją AI – i to też nie jest przypadek. W 2023 r. śledztwo przeprowadzone przez dziennikarzy Zeit Online, BalkanInsigh, LeMonde czy elDiario ujawniło, że za lobbingiem na rzecz kontroli czatu stoi sieć powiązań, w którą zamieszane są agencje bezpieczeństwa, przedsiębiorstwa marketingowe czy firmy technologiczne. Mówiło się o powiązaniach „wartych wiele milionów dolarów”. Komisja Europejska pozwalała brać udział w ważnych spotkaniach przedstawicielom kontrowersyjnego Thorna – teoretycznie organizacji non-profit, ale zajmującej się też sprzedażą oprogramowania AI służącego wykrywaniu nadużyć wobec nieletnich. Jednym z klientów Thorna jest amerykański Departament Bezpieczeństwa Wewnętrznego. Inna lobbująca na rzeczy kontroli czatu grupa to WeProtect Global Alliance – wedle doniesień dziennikarzy połączona z agencjami rządowymi, służbami bezpieczeństwa oraz koncernami technologicznymi.
Innymi słowy: działanie na rzecz technologii, która aktywnie przeszukiwałaby internet i skanowała komunikację obywateli, nie ochroni małoletnich przed przemocą seksualną. Nigdy nie miało takiego celu. Od początku chodziło tylko i aż o to, by firmy technologiczne mogły zarobić, a służby zdobyły jeszcze więcej uprawnień względem obywateli. Wycieranie sobie buzi „dobrem dzieci” zawsze było skuteczną metodą manipulacji społeczeństwem. Warto o tym pamiętać, by nie stać się marionetką w rękach lobbistów, firm technologicznych czy polityków.
Piszę o ludziach, polityce cyfrowej, big techach i wpływie technologii na społeczeństwo. Wrzucam też cotygodniowe prasówki z tematyki cyfrowej i feministycznej. Jestem publicystką, feministką i świecką humanistką. Działałam w polskich indymediach. Współpracowałam z redakcją techspresso.cafe, publikowałam w serwisie szmer.info. Obecnie prowadzę blog pod adresem didleth.pl, ale jestem też otwarta na współpracę z innymi serwisami. Zachęcam do lektury i kontaktu! 🙂

