Prywatność dla władzy, nadzór dla reszty: nowa logika regulacji w Unii

Wygrywają najwięksi gracze, bo tylko oni mają budżety na prawników

Adrian Kosta
6 min czytania

Unijna polityka technologiczna coraz rzadziej przypomina precyzyjny zestaw reguł, a coraz częściej system odruchów: jeśli ryzyko jest możliwe, należy je zdusić zawczasu, nawet gdy nie wiadomo jeszcze, jak wygląda w praktyce. Ten sposób myślenia wyrasta z zasady ostrożności, która pozwala podejmować środki zapobiegawcze w warunkach niepewności, gdy „stawka jest wysoka”. W teorii brzmi to jak odpowiedzialność. W realiach gospodarki cyfrowej oznacza jednak koncentrację władzy regulacyjnej i dominację logiki „lepiej zakazać niż zrozumieć”.

Skutek uboczny jest w gruncie rzeczy przewidywalny: koszty zgodności z regulacjami rosną, innowacyjność słabnie, a rynek bardziej się koncentruje.

Jeżeli środowisko prawne premiuje ostrożność proceduralną zamiast zarządzania ryzykiem, to wygrywają najwięksi gracze, bo tylko oni mają budżety na działy compliance i prawników. W tej rzeczywistości nie dziwi, że wśród pięćdziesięciu największych firm technologicznych świata tylko 4 mają europejskie korzenie.

Gdy „prawa podstawowe” stają się narzędziem selektywnym

Drugim filarem unijnego podejścia jest retoryka praw. Brzmi szlachetnie, ale ma jedną zasadniczą wadę: można wybrać te prawa, które akurat pasują do celu politycznego, a resztę zepchnąć na dalszy plan.

Przykład jest wyrazisty: regulacje ochrony danych osobowych, wprowadzone z myślą o ochronie fundamentalnego prawa do ochrony danych, w praktyce ograniczyły wolność gospodarczą. To nie jest spór o intencje, lecz o skutki, które uderzają w rozwój usług, konkurencję i możliwość testowania nowych rozwiązań.

Teraz ta sama logika wraca w nowym, moralnie najmocniejszym opakowaniu: walce z wykorzystywaniem seksualnym dzieci w internecie. Trudno o temat bardziej emocjonalny, a zarazem bardziej podatny na prawną eskalację. W efekcie proponuje się rozwiązania, które traktują komunikację obywateli jak strefę wymagającą nadzoru, zamiast jak przestrzeń wypowiedzi objętą domyślnym prawem do prywatności.

Regulacja CSA: obowiązek, którego „formalnie” nie ma

Negocjacje nad szczegółami regulacji dotyczącej zwalczania wykorzystywania seksualnego dzieci online trwały co najmniej do 26 listopada 2025 r. i przyniosły istotną zmianę: z najnowszego projektu usunięto „formalnie” obowiązek skanowania prywatnej komunikacji. To jednak ulga pozorna, bo wprowadzono mechanizm, który może prowadzić do tego samego skutku inną drogą.

Dostawcy usług hostingu oraz usług komunikacji interpersonalnej mają obowiązek zidentyfikować, przeanalizować i ocenić, w jaki sposób ich usługi mogą zostać wykorzystane do przestępstw, a następnie wdrożyć „wszelkie rozsądne środki ograniczające ryzyko”. Taka konstrukcja jest otwarta, pojemna i prawnie niebezpieczna: gdy nad dostawcą wisi odpowiedzialność, „najbezpieczniejszą” metodą wykazania zgodności staje się masowe skanowanie prywatnych wiadomości, nawet jeśli nigdzie nie zapisano go wprost jako obowiązku.

Projekt wskazuje, że środki łagodzące powinny być – o ile to możliwe – ograniczone do konkretnych części usługi lub konkretnych grup użytkowników. Tyle że bodźce systemowe kierują w przeciwną stronę: szeroki monitoring może stać się jedyną realnie „udowadnialną” formą spełnienia wymogu. To, co dziś jest przedstawiane jako dobrowolne, jutro może stać się faktycznym przymusem.

W debacie publicznej pojawia się zdanie, które ma rolę młota: skoro „co roku udostępnia się miliony plików” przedstawiających przemoc seksualną wobec dzieci, a za każdym obrazem i nagraniem stoi realna krzywda, to wszystko inne ma zejść na drugi plan. Ten argument jest skuteczny, bo nikt nie kwestionuje wagi problemu ani konieczności surowego karania sprawców.

Problem zaczyna się tam, gdzie moralny imperatyw staje się uniwersalnym wytrychem, a społeczeństwo ma „przyjąć koszt” w postaci utraconej prywatności i poszerzonych uprawnień nadzorczych państwa.

CYNICZNYM OKIEM: W takiej konstrukcji cena jest z góry uznana za nieistotną, bo porównuje się ją z dobrem najwyższym. To wygodne, ale niebezpieczne, bo wolne społeczeństwo nie przestaje być wolne tylko dlatego, że ma dobry powód.

Wyjątek, który demaskuje intencje: bezpieczeństwo państwa i „usługi niepubliczne”

Najbardziej zaskakujący element projektu nie dotyczy technologii, lecz hierarchii ludzi. Regulacja wprowadza bowiem wygodny wyłom: wszystko, co podpada pod bezpieczeństwo narodowe, oraz każda elektroniczna usługa komunikacyjna, która nie jest publicznie dostępna, czyli dostępna wyłącznie dla wybranych urzędników i osób pełniących funkcje publiczne, ma pozostać nietknięta. Innymi słowy: prywatne rozmowy obywateli mają być potencjalnie analizowane, ale rozmowy tych, którzy stanowią prawo i zarządzają aparatem państwa, zostają poza zasięgiem.

Jeżeli za „każdym pojedynczym obrazem i nagraniem” stoi dziecko, to logika nakazywałaby konsekwencję także wobec kanałów komunikacji chronionych wyjątkami. A jednak projekt tworzy podział, którego nie da się obronić moralnym argumentem, skoro właśnie na moralności opiera się uzasadnienie ingerencji. W praktyce powstaje system, w którym ochrona dzieci ma pierwszeństwo przed prywatnością, ale ochrona uprzywilejowanej komunikacji władzy ma pierwszeństwo przed ochroną dzieci.

W tym układzie nowoczesna technologia nie jest już tylko narzędziem do ścigania przestępstw. Staje się architekturą przewagi: daje politykom i urzędnikom bezprecedensową możliwość monitorowania obywateli, jednocześnie zapewniając im samym strefę komfortu, do której nadzór nie ma wstępu. To nie jest drobny szczegół legislacyjny, lecz projekt społecznego kontraktu pisanego na nowo – kontraktu, w którym przejrzystość działa w jedną stronę.


Opisz, co się wydarzyło, dorzuć, co trzeba (dokumenty, screeny, memy – tutaj nie oceniamy), i wyślij na redakcja@cynicy.pl.
Nie obiecujemy, że wszystko rzuci nas na kolana, ale jeśli Twój mail wywoła u nas chociaż jeden cyniczny uśmiech, jest nieźle.

TAGI:
KOMENTARZE

KOMENTARZE

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *