Kiedy dwie dekady temu powstawały platformy społecznościowe, dostały od nas duży kredyt zaufania, a same dały nam nadzieję na demokratyzację publicznego dyskursu. Analitycy zachwycali się innowacyjnością kampanii Baracka Obamy, sukcesy święciło dziennikarstwo obywatelskie, a częściej niż na parapetówkę u przyjaciół można było zaproszenie na wieczorny protest. Jednak po latach bilans ma gorzki smak – mimo iż social media weszły do naszego życia na stałe, zewsząd słyszymy o szkodach, które mają nam – jako społeczeństwu – wyrządzać: o utrwalaniu polaryzacji, szerzeniu dezinformacji, trywializacji polityki.
Dziś świat zachwyca się nową technologią. Sztuczna inteligencja ma oceniać matury, automatyzować pracę tysięcy pracowników biurowych i uczyć nas rozumieć język delfinów i ptaków. Pod powierzchnią pączkują jednak inne zjawiska, paralelne do tych sprzed dekady, które na stałe zmieniają zasady politycznej gry.
Syntetyczne wybory
Wyświechtanym już przykładem wpływu mediów społecznościowych na rzeczywistość, a jednocześnie punktem zwrotnym w ich historii jest referendum w sprawie brexitu i związane z nim nadużycia w wykorzystaniu danych wyborców. W ostatnich miesiącach w świecie sztucznej inteligencji afer pokroju Cambridge Analytica można liczyć na pęczki. Oczywiście nie w wycyzelowanych informacjach prasowych o nowych kontraktach, rundach inwestycyjnych i rosnącej liczbie użytkowników tych modeli, ale raczej w nudnych i głęboko ukrytych raportach na podstronach firm technologicznych.
Globalne centrum wyborcze TikToka deklaruje, iż tylko w ciągu dwóch tygodni polskiej kampanii prezydenckiej zablokowanych zostało na tej platformie ponad 5 mln fałszywych polubień treści i 20 tys. fałszywych kont. Jak możliwa byłaby taka skala manipulacji bez automatycznie generowanych treści? Podobne suche komunikaty publikowane były w odniesieniu do większości wyborów w Europie, od Portugalii po Mołdawię. To jednak wąski wycinek tego, jak zautomatyzowane systemy kierują naszą uwagą. Legendami już obrósł sterowany przez AI algorytm tej chińskiej platformy podsuwający użytkownikom materiały na tematy, o których ledwo zdążyli pomyśleć, i tak hipnotyczny, iż przeciętny polski użytkownik TikToka spędza w jego towarzystwie około 20 godzin miesięcznie.
Walkę z podobnymi operacjami wpływu deklaruje OpenAI, globalna firma zarządzająca chatbotem ChatGPT. Ich narzędzie już w 2024 roku było używane do masowego tworzenia i automatycznego wrzucania antyzachodnich memów na portal X czy popularną stronę 9GAG. Autorzy raportu zadeklarowali jednak, iż nie istnieją duże powody do zmartwień, bo boty podważające sens wojny na Ukrainie miały rozmawiać tylko same ze sobą – wzajemnie podawać się dalej, komentować i klikać serduszka pod wygenerowanymi przez siebie treściami.
Takie narzędzia mogą służyć jednak nie tylko do masowej produkcji propagandowych treści, ale też mogą być przejmowane do „prania brudnych informacji”. Sprawę naświetliła organizacja NewsGuard, której badania pokazują, iż choćby co trzecia odpowiedź proponowana przez chatboty może powoływać się na dezinformujące rosyjskie strony internetowe powstałe w ramach operacji Pravda. Celem tworzenia takich stron-klonów jest zalanie internetu fałszami na temat sytuacji w Ukrainie, a następnie „zatrucie” modeli językowych. Im bardziej niszowe tematy, w których modele językowe nie mają dostępu do wiarygodnych źródeł, tym większe ryzyko, iż automat sięgnie po celowo podsunięte manipulacyjne treści i przedstawi je jako prawdę.
To, iż chatboty mogą namieszać mocno politycznie, zobaczyliśmy już na własne oczy w Polsce. W lipcu 2025 roku Grok, bot odpowiadający na pytania wszelakie, zadawane przez użytkowników platformy X, wymknął się spod kontroli. W wersji anglojęzycznej proponował powrót do hitlerowskich polityk w walce z „rasizmem wobec białych”. Podobny błąd (czy może celowa prowokacja firmy Elona Muska sprawdzająca, jak daleko taki system może się posunąć) miały miejsce także w Polsce, poza tym Grok publikował m.in. agresywne posty o Donaldzie Tusku i Janie Pawle II. Wzbudziło to na tyle silne emocje, iż polskie Ministerstwo Cyfryzacji zawiadomiło Komisję Europejską o możliwym naruszeniu unijnego prawa, mimo wcześniejszych oporów we wprowadzaniu tych zasad nad Wisłą.
Media na bocznym torze
Śmiało można założyć, iż dla większości Polaków stroną startową w ich przeglądarkach internetowych jest wyszukiwarka, najpewniej Google. To furtka do internetu, który przez lata indeksował linki według ich trafności względem wpisywanego zapytania. Odpowiedzialność za wiarygodność informacji w pełni spoczywała po stronie autorów stron internetowych, a my, jako odbiorcy, mogliśmy decydować, komu zaufamy.
W 2025 roku nastąpiła jednak zmiana — na szczycie listy wyników wyszukiwania Google’a, choćby ponad reklamowymi linkami, pojawia się podsumowanie wiedzy, wygenerowane na podstawie informacji pochodzących różnych stron internetowych. W założeniu ma ono dać precyzyjną odpowiedź poprzez skompilowanie wiedzy z wielu źródeł. Często jednak podsumowania opierają się na nieaktualnych informacjach albo na łączeniu pojęć czy osób bez rozumienia kontekstu (to właśnie dzięki funkcji Google AI Overview, dowiedziałem się, iż Aleksander Baron jest prawdziwym człowiekiem renesansu – jednocześnie muzykiem zespołu Afromental i cenionym szefem kuchni).
Wiarygodność tych danych jest żyrowana przez dotychczasową reputację wyszukiwarki. Jednak przez wprowadzanie w tak eksponowanym miejscu narzędzia, które nie tylko myli się, ale także wykazuje nadmierną pewność siebie, zaufanie wobec informacji dostępnych w sieci spada. Jednocześnie wyniki, które dostajemy, prezentowane są nie jako obiektywne informacje, do jakich jako użytkownicy jesteśmy przyzwyczajeni, ale jako treści niejednokrotnie o subiektywnym czy ocennym charakterze.
Takie narzędzie podsumowujące, choćby jeżeli w dużej części przypadków praktyczne, oddala nas od źródła informacji. Na tę cechę narzędzi AI szczególnie narzekają wydawcy internetowych mediów, widząc, iż ruch w ich serwisach znacząco spada. Formułowane są oskarżenia o celowe zatrzymywanie użytkowników przed wejściem na docelową stronę i o żerowanie na wypracowanych przez dziennikarzy treściach. Niezależnie od tych sporów, taki model informowania to kolejny krok w stronę zamykania jakościowej informacji w sieci – większość wartych uwagi treści już dziś znajduje się za paywallem, a za darmo użytkownicy dostają często jedynie clickbait z małą zawartością wiedzy.
Państwa z wybitymi zębami
Lipcowy list wicepremiera Gawkowskiego dotyczący wybryków Groka prawdopodobnie nie trafił do brukselskiej szuflady, ale raczej na stertę podobnych skarg na platformę X, którymi Komisja zajmuje się co najmniej od 2023 roku, kiedy to zostało otwarte postępowanie w kwestii zaniedbań platformy w zakresie „ograniczania ryzyk dla procesów demokratycznych”. Wyniki prac nie ujrzały światła dziennego do dziś, a urzędnicy z Berlaymont są skutecznie powstrzymywani przez amerykańską administrację – na coraz to nowe sposoby – przed nałożeniem kar na duże platformy cyfrowe – perłami w koronie transatlantyckiego biznesu.
Próby działań europejskich rządów przypominają przechodzenie przez zaminowane pole. Nie można odmówić racji tym, którzy wskazują, iż w sprawie ograniczeń politycznego wykorzystania modeli, politycy są sędziami we własnej sprawie. Próba upomnienia Elona Muska z 2024 roku w sprawie lepszej moderacji treści w Europie, podjęta przez komisarza Thierry’ego Bretona, skończyła się politycznym konfliktem między nim a szefową Komisji Europejskiej Ursulą von der Leyen. Dzisiaj platformy też inaczej opowiadają o swoich działaniach z ostatnich lat. Zarówno Meta, jak i Google utrzymują obecnie, iż – o ile chodzi o ich wcześniejsze decyzje moderacyjne – to były one podjęte pod silną presją administracji Demokratów.
Deklarowana dziś przez Amerykanów absolutna wolność słowa dla chatbotów okazuje się jednak mieć swoje granice, zwłaszcza jeżeli modele AI miałyby proponować treści nawołujące do równości i różnorodności. 23 lipca 2025 roku na stronie internetowej Białego Domu pojawiło się rozporządzenie wykonawcze Preventing Woke AI, które zakazuje zakupu i wykorzystywania przez rząd federalny USA modeli mających dostarczać informacje o intersekcjonalności (zjawisko nakładania się na siebie różnych kategorii społecznych, np. płci, orientacji seksualnej czy koloru skóry, wzmacniających dyskryminację – przyp. red.), transpłciowości albo systemowym rasizmie.
Nad tym globalnym galimatiasem tym trudniej jest zapanować pojedynczym krajom. W Polsce, w której czekamy na wdrożenie Rozporządzenia o sztucznej inteligencji (AI Act), na wczesnym etapie prac nad ustawą krajową pozwalającą na stosowanie go rozważano możliwość zablokowania dowolnych modeli AI na 30 dni przed wyborami. Temat nie został podjęty na dalszych etapach prac – uznanie kompetencji nowo powstałej komisji do blokowania z dnia na dzień dostępu do większości mediów społecznościowych okazało się tematem niemożliwym do realizacji ze względu na możliwe oskarżenia o rządową cenzurę. Polski rząd jedną ręką wdraża AI Act, ale drugą wspiera na arenie unijnej doktrynę Stop-the-clock, która ma zamrozić wprowadzenie tej regulacji we wszystkich unijnych krajach – ku chwale rozwoju innowacji i poprawnych relacji transatlantyckich.
Drobne korekty na wielkiej fali
Trudno znaleźć przykład kraju, który znalazł skuteczne i niezależne narzędzia do sprawowania kontroli nad pędzącym rynkiem AI. Nadzieje na szybki rozwój i specyfika „wyścigu mocarstw” wokół tych technologii pozwalają na przypuszczenie, iż czas przyzwyczajać się do trwałej zmiany w otoczeniu informacyjnym: dalszego rozwarstwienia w dostępie do wiedzy i zalewu nieprawdziwych informacji. Drobne korekty w postaci oznaczeń treści czy działań fact-checkingowych wzmacniają prawa użytkowników, jednak otwarte pozostaje pytanie: czy skutek tego będzie rzeczywisty, czy jedynie kosmetyczny.
—
Foto.:Camilo Jimenez, Checking message status, cropped by the RPN team, Unsplash.
—
Tekst pochodzi z numeru Res Publiki Nowej Eye to AI. Świat w czasie techno-rewolucji opublikowanego 17.11.2025.

19 godzin temu












