UE deklaruje, iż chce uczynić przestrzeń cyfrową bezpieczniejszą dla najmłodszych. W tym celu Komisja Europejska zaprezentowała nowy zestaw wytycznych dotyczących ochrony dzieci online oraz prototyp aplikacji do weryfikacji wieku. Inicjatywa ta stawia pytania o równowagę między ochroną a prawami dziecka i użytkownika.
Internet stał się równoległym światem – edukacyjnym, społecznym, rozrywkowym. Dla dzieci i młodzieży może być przestrzenią nauki i kontaktów, ale równie dobrze może stanowić źródło zagrożeń.
Praktyki uzależniające, cyberprzemoc, niechciany kontakt z nieznajomymi czy szkodliwe treści to zjawiska dobrze znane i udokumentowane. Problem polega jednak na tym, iż mimo ich powszechności, systemowe środki przeciwdziałania wciąż są niespójne, rozproszone i często nieskuteczne.
Komisja Europejska podjęła próbę uporządkowania tego obszaru poprzez zestaw wytycznych dla platform internetowych. Nowe zalecenia mają zapewnić dzieciom wysoki poziom ochrony prywatności oraz bezpieczeństwa.
Z platform mają zniknąć mechanizmy stymulujące zachowania o charakterze uzależniającym, np. niekończące się przewijanie treści czy nadmiar powiadomień. Zaleca się także ograniczanie sytuacji narażających małoletnich na kontakt z nieznajomymi i przemoc słowną, także w formie zautomatyzowanej.
Jednocześnie Komisja podkreśla, iż środki ochronne nie mogą ingerować w sposób nieproporcjonalny w prawa dziecka. Warto jednak zapytać, kto i jak będzie oceniał, co w tym kontekście oznacza „proporcjonalność”.
Wydaje się, iż balans pomiędzy ochroną a autonomią cyfrową dziecka będzie w praktyce zależał od bardzo konkretnych decyzji regulatorów krajowych i polityk platform – a więc od aktorów, których interesy mogą się różnić.
Weryfikacja wieku bez ujawniania tożsamości?
Najbardziej innowacyjnym (i zarazem kontrowersyjnym) elementem nowych działań Komisji jest prototyp aplikacji do weryfikacji wieku. Narzędzie ma stanowić odpowiedź na problem braku skutecznych, a zarazem bezpiecznych rozwiązań potwierdzających pełnoletniość w Internecie.
Dotychczasowe metody – oparte na podawaniu daty urodzenia lub skanowaniu dokumentów – nie tylko były łatwe do obejścia, ale także wiązały się z ryzykiem nadmiernej ekspozycji danych osobowych.
Nowa aplikacja, jak zapewnia Komisja, oparta jest na zasadzie maksymalnej ochrony prywatności: ma umożliwiać potwierdzenie, iż użytkownik ma ukończone 18 lat, bez ujawniania jego imienia, nazwiska czy dokładnej daty urodzenia. Ani platforma, ani osoby trzecie nie będą mieć dostępu do treści przeglądanych przez użytkownika ani historii jego aktywności.
Technicznych szczegółów jeszcze w pełni nie ujawniono, ale wiadomo, iż aplikacja korzysta z tych samych specyfikacji, co europejskie portfele tożsamości cyfrowej (eID), które mają wejść w życie do końca 2026 roku.
W teorii brzmi to jak przełom. W praktyce pojawia się jednak szereg pytań: czy użytkownicy rzeczywiście zyskają zaufanie do narzędzia, którego kod i infrastruktura będą prawdopodobnie kontrolowane centralnie? Czy rozwiązanie, mające służyć dzieciom, nie stanie się przy okazji mechanizmem masowej weryfikacji tożsamości dla całego społeczeństwa?
Ochrona dzieci czy testowanie przyszłych standardów?
Z perspektywy prawnej projekt aktu dotyczącego weryfikacji wieku można interpretować nie tylko jako element ochrony małoletnich, ale jako krok w stronę szerszej regulacji dostępu do treści cyfrowych według kryteriów wiekowych.
Komisja Europejska nie ukrywa, iż aplikacja ma stanowić fundament przyszłych „usług dostosowanych do wieku”, czyli selektywnego udostępniania funkcji i treści na podstawie profilu wiekowego użytkownika.
Tego rodzaju segmentacja treści ma swoje zalety, ale również budzi ryzyko. Czy będzie oznaczać realną ochronę przed szkodliwymi treściami, czy raczej pretekst do tworzenia równoległych wersji Internetu – mniej funkcjonalnych dla młodszych użytkowników, a bardziej komercyjnych dla starszych?
Co więcej, jeżeli systemy weryfikacji wieku staną się domyślnym standardem, presja na ujawnianie danych i rezygnację z anonimowości może wzrosnąć – i to nie tylko wobec dzieci, ale wobec wszystkich użytkowników.
Brakujące ogniwa: egzekwowanie i współpraca
Komisja Europejska zapowiada, iż aplikacja będzie testowana w ścisłej współpracy z państwami członkowskimi, platformami i użytkownikami końcowymi. To konieczne, ale to nie wystarczy. Największym zagrożeniem dla skuteczności nowych rozwiązań nie jest ich brak, ale ich częściowe lub wybiórcze wdrożenie.
Z jednej strony platformy cyfrowe mogą próbować minimalizować zakres swoich obowiązków, powołując się na nieproporcjonalność kosztów lub ograniczenia techniczne. Z drugiej państwa członkowskie różnią się podejściem do ochrony danych osobowych, egzekwowania przepisów unijnych i nadzoru nad platformami.
W takich warunkach skuteczna ochrona dzieci wymaga nie tylko innowacyjnych narzędzi, ale i jednolitych, jasno egzekwowanych standardów. Bez nich istnieje ryzyko, iż wytyczne pozostaną martwym dokumentem, a aplikacja stanie się kolejnym eksperymentem technologicznym, który nie zmieni realiów użytkowników.
Ochrona czy kontrola?
Zasadnicze pytanie, jakie rodzi ta inicjatywa, dotyczy granicy między ochroną a kontrolą. Trudno mieć wątpliwości, iż dzieci i młodzież potrzebują lepszych mechanizmów zabezpieczających przed przemocą i manipulacją w sieci.
Jednocześnie niepokój budzi możliwość wykorzystania tych samych narzędzi do nadmiernej kontroli zachowań użytkowników – nie tylko małoletnich, ale i dorosłych. W tym kontekście prototyp aplikacji weryfikującej wiek może być albo początkiem nowego standardu prywatności, albo krokiem w stronę systemowej inwigilacji pod pretekstem ochrony najmłodszych.
Zachowanie równowagi między bezpieczeństwem, prywatnością a dostępem do treści będzie najtrudniejszym testem zarówno dla regulatorów, jak i samych użytkowników. Ostateczny kształt i rola tych rozwiązań nie zależy bowiem wyłącznie od technologii – ale od politycznych i społecznych decyzji, które zapadną wokół nich.