Dezinformacja, mowa nienawiści i treści generowane przez sztuczną inteligencję coraz bardziej niepokoją Europejczyków. Jak pokazuje styczniowe badanie Eurobarometru, blisko 70 proc. obywateli UE obawia się zagrożeń związanych z komunikacją w sieci, a w Polsce odsetek ten pozostało wyższy. Szczególne emocje budzą deepfaki, które są wykorzystywane do manipulacji politycznych, ale i tworzenia treści pornograficznych. Europosłowie są zgodni co do potrzeby regulacji, ale różnią się w ocenie, jak daleko powinna ona sięgać.
– Potężny rozwój AI powoduje, iż w sieci, na Facebooku czy TikToku, pojawia się bardzo wiele wygenerowanych filmików, które trudno odróżnić od tych prawdziwych. Powinny być dostępne narzędzia mówiące o tym, iż dany filmik jest wygenerowany przez AI. To powinno być jasno określone w sieci – mówi agencji Newseria Arkadiusz Mularczyk, poseł do Parlamentu Europejskiego z Prawa i Sprawiedliwości. – Jeżeli odbiorca w sieci ma wiedzę, iż dany filmik został wygenerowany przez AI, a nie prawdziwe osoby, to ta informacja w mojej ocenie wyczerpuje ochronę przed szkodliwymi treściami w internecie. Obywatele muszą mieć prawo do informacji.
Obowiązek oznaczania treści generowanych przez sztuczną inteligencję wynika z unijnego aktu o sztucznej inteligencji. Część polityków podkreśla jednak, iż nie jest to wystarczająca ochrona przed nadużyciami związanymi z AI i deepfake'ami. Według szacunków ujętych w raporcie Parlamentu Europejskiego z lipca 2025 roku w całym ubiegłym roku mogło być udostępnionych choćby 8 mln deepfake'ów, czyli aż o 7,5 mln więcej niż jeszcze w 2023 roku. Komisja Europejska stwierdza, iż materiały pornograficzne stanowią około 98 proc. wszystkich tego typu treści.
– Sztuczna inteligencja, która miała przynosić nam tylko korzyści, przynosi też bardzo dużo złego. Naszym zadaniem jako Europejczyków, ale również polskich polityków jest przygotowanie takiego prawa, żeby deepfaki, nieprawidłowości, kłamstwa, manipulacje były gwałtownie usuwane – uważa Joanna Scheuring-Wielgus, posłanka do Parlamentu Europejskiego z Nowej Lewicy. – Przypomnę ostatnio bardzo gorącą sprawę z grudnia ubiegłego roku, kiedy ktoś wykorzystał sztuczną inteligencję, używając postaci młodych Polek, żeby zachęcać do tego, by Polska wyszła z Unii Europejskiej. Reakcja polskiego rządu była natychmiastowa, podobnie jak reakcja Unii Europejskiej. Te nieprawdziwe informacje zostały usunięte, ale niestety wyrządziły też dużo złego.
Mowa o profilu na TikToku o nazwie Prawilne_Polki, na którym wygenerowane przez sztuczną inteligencję wizerunki młodych Polek przedstawiały korzyści z opuszczenia przez Polskę Unii Europejskiej. Jak podaje Instytut Monitorowania Mediów, filmy osiągały setki tysięcy wyświetleń.
– Deepfaki i dezinformacja to dzisiaj broń, która jest wymierzona prosto w Europę, w naszą demokrację i jej zasady, ale także jako narzędzie podważania wyborów. Europa musi mieć na to zdecydowaną, jasną i kompletną odpowiedź. Ale są też takie granice, których nam nie wolno przekraczać. To jest bezpieczeństwo naszych dzieci w sieci. To jest najważniejsze. Większość tych deepfake'ów to są materiały pornograficzne, więc nie możemy dopuścić do tego, żeby dzieci zamiast bezpiecznego internetu były narażone na coś tak ohydnego. Dlatego przygotowujemy przepisy, które będą chroniły dzieci, kobiety i w ogóle obywateli, nie tylko zasady demokracji i wolne wybory – mówi Mirosława Nykiel, posłanka do Parlamentu Europejskiego z Koalicji Obywatelskiej.
Z raportu „Nastolatki” NASK – PIB wynika, iż 34 proc. uczniów drugiej klasy szkoły średniej słyszało o pojęciu deepfake. Odsetek ten wśród uczniów klasy pierwszej był nieco niższy i wyniósł 30 proc. Wśród tych osób kolejno 63 i 74 proc. miało z nimi styczność. Mniej zaznajomieni z tym terminem są uczniowie klas siódmej i ósmej szkoły podstawowej – odpowiednio 16 i 26 proc., a spośród nich odpowiednio 60 i 64 proc. badanych zetknęło się z deepfake'ami. Zdaniem tej grupy nastolatków deepfaki najczęściej powstają dla żartu – tak odpowiedziało 43 proc. badanych przez NASK. Około 29 proc. natomiast uważało, iż technologia ta jest wykorzystywana do tworzenia treści pornograficznych. Ponadto 7 proc. badanych przyznało, iż stało się ofiarą deepfake'ów.
Jak podkreśla Urząd Ochrony Danych Osobowych, potrzebne są nowe przepisy, które będą chronić użytkowników przed nadużyciami związanymi z tym zjawiskiem. Prezes tej instytucji ocenia, iż zarówno unijne przepisy, takie jak AI Act czy akt o usługach cyfrowych (DSA), jak i polskie regulacje (Kodeks cywilny, Kodeks karny czy prawo autorskie) zapewniają tylko wybiórczą i niewystarczającą ochronę, a szansą na poprawę sytuacji jest m.in. ponowne podjęcie prac nad przepisami mającymi wdrożyć DSA – po niedawnym wecie prezydenta RP.
– Akt o usługach cyfrowych, który został zatwierdzony w Parlamencie Europejskim, to jest bardzo dobry projekt. Natomiast zła wiadomość jest taka, iż Polska jako jedyny kraj go nie wdrożyła. Zostało to przegłosowane w Sejmie i Senacie, ale prezydent Karol Nawrocki ustawy nie podpisał. To jest akurat zła informacja dla Polek i Polaków, ponieważ to jest brak obrony przed dezinformacją, oszustami i manipulacją – uważa Joanna Scheuring-Wielgus.
Karol Nawrocki na początku stycznia br. zawetował ustawę wdrażającą unijny DSA, która – jak podkreślał rząd – miała pozwolić skutecznie walczyć z nielegalnymi treściami, w tym z pedofilią czy oszustwami, umożliwiając blokowanie nielegalnych treści. To właśnie ten aspekt wzbudził sprzeciw prezydenta, który wskazywał na ryzyko cenzurowania treści i ograniczania wolności słowa. Rząd podkreślił, iż przyjęta przez parlament ustawa uwzględniała poprawki Senatu, które zwiększały kontrolę sądową nad procedurą blokowania nielegalnych treści. Ta procedura zakładała m.in. ograniczenie automatycznego nadawania rygoru natychmiastowej wykonalności decyzjom, wobec których wniesiono sprzeciw.
– Nie mam zaufania do działań Komisji Europejskiej, których celem jest walka o transparentność internetu, bo za tym zawsze mogą się kryć działania, których celem jest ograniczenie wolności słowa. Oczywiście, część przepisów może być ukierunkowana na ograniczenie nieprawidłowych treści w internecie. Część jednak może być skierowana wobec opozycji, która krytykuje działania Komisji Europejskiej, Ursuli von der Leyen, komisarzy czy całą ideologię Unii Europejskiej, często promującą wartości, które bardzo odbiegają od tego, co myślą zwykli obywatele Unii Europejskiej – ocenia Arkadiusz Mularczyk.
Jak podkreśla, ochrona nieletnich przed nielegalnymi treściami może być tu pretekstem do utrzymywania monopolu na narrację w mediach.
– Z platformami technologicznymi trzeba wejść w dialog. Widzimy, iż zaangażowanie X Elona Muska w kampanię prezydenta Trumpa spowodowało, iż nagle elity liberalne, lewicowe w Unii Europejskiej uznały, iż media społecznościowe są zagrożeniem dla ich prymatu, dla ich monopolu na władzę. Stąd pod płaszczykiem ochrony internetu, ochrony nieletnich w internecie rozpoczęła się walka z platformami cyfrowymi – ocenia europoseł PiS.
– Platformy cyfrowe przede wszystkim powinny płacić podatki u nas w kraju, powinny reagować na manipulacje, dezinformację, hejt i oszustwa, a niestety tego nie robią – uważa Joanna Scheuring-Wielgus.
26 stycznia br. Komisja Europejska poinformowała o wszczęciu formalnego dochodzenia przeciwko X. Ma przeanalizować, czy platforma oceniła i zminimalizowała ryzyko związane z wdrożeniem w UE Groka, czyli chatbota opartego na AI. Dotyczy to także ryzyka rozpowszechniania nielegalnych treści, takich jak zmanipulowane obrazy o charakterze seksualnym, również tych, które mogą być materiałami przedstawiającymi wykorzystywanie seksualne dzieci.
– Czy w tej chwili unijne przepisy dają wystarczające narzędzia, żeby reagować na takie przypadki wykorzystywania sztucznej inteligencji? Myślę, iż w dużym stopniu tak. Natomiast trzeba wziąć pod uwagę, iż te technologie się zmieniają w tempie wykładniczym, więc nie można powiedzieć, iż mamy coś bezpiecznego i na stałe – uważa Mirosława Nykiel. – Musi być to bezpieczeństwo elastyczne, czyli bardzo dostępne, dogodne, żeby można było w każdej chwili coś dorzucić, kiedy się coś zmienia. Tworzenie nadmiernych przepisów nie jest naszą chlubą. My teraz robimy omnibusy, żeby odejść od nadmiaru przepisów, więc nie chcemy tworzyć w zamian nowych. Ale świat się tak gwałtownie zmienia, iż musimy to wszystko regulować. Tego wręcz się od nas domagają obywatele.
Jak wynika z opublikowanego w styczniu badania Eurobarometru, Europejczycy są bardzo zaniepokojeni takimi zjawiskami jak dezinformacja, mowa nienawiści w internecie i poza nim, nieprawdziwe treści tworzone przez AI, ochrona danych osobowych w internecie i zagrożenie dla wolności słowa. Na każde z nich wskazało ok. 67–69 proc. badanych obywateli UE. Tylko co 10. odpowiedział, iż nie widzi związanego z tym ryzyka. Wśród polskich respondentów odsetek zaniepokojonych był jeszcze wyższy – między 70 a 75 proc.

2 godzin temu












