Jak się bronić przed algorytmami

Ekran podpowiada różne materiały stanowiące źródło informacji bez szans na możliwość weryfikacji. To spycha w stan bierności, co wiąże z bezrefleksyjnym i bezkrytycznym odbiorem – rozmowa z Konradem Ciesiołkiewiczem
Czyta się kilka minut
fot. imagedepotpro/Getty Images
fot. imagedepotpro/Getty Images

Przez polską granicę przeleciało 19 rosyjskich dronów, testując naszą zdolność do reakcji. Na razie to agresja nie wprost, a „przypadkiem”, której celem jest wywołanie strachu, chaosu i destabilizacji kraju. Natychmiast ruszyło za tym co najmniej kilkadziesiąt tysięcy fałszywych profili w mediach społecznościowych, przekazując propagandę Kremla: „drony są ukraińskie; Ukraina siłą wciąga Polskę do wojny”. Rząd to widzi, ostrzega przed planową dezinformacją, ale wielu ludzi ma wątpliwości, bo skoro tyle profili powtarza w komentarzach identyczne kłamstwo, to może to jednak prawda? Jak się bronić?
– To jest bardzo trudne. Jest także duża różnica pokoleniowa między rodzicami a dziećmi i ludźmi młodymi. Nam się wydaje, że internet jest jednym z mediów, które informują nas „na żądanie”. Tak nas uczono. Mentalnie tkwimy w świecie, w którym to my jesteśmy aktywnymi poszukiwaczami wiedzy, my ją weryfikujemy, nasza wola jest tu realizowana.
Tymczasem młodzi ludzie funkcjonują w przestrzeni cyfrowej diametralnie innej. Jest ona oparta na rekomendacyjnych algorytmach. Dzieci są bardzo pasywne, jeśli chodzi o szukanie informacji. Zresztą my też tacy się stopniowo stajemy, choć wolniej. Dla młodych od początku internet stanowi oczywistą przestrzeń życia. Ekran smartfona czy laptopa podpowiada im filmiki, różne materiały stanowiące źródło informacji bez szans na możliwość weryfikacji. To jest groźne z kilku powodów. Przede wszystkim spycha młodych ludzi w stan bierności, pasywności (co ściśle się wiąże z bezrefleksyjnym, a co za tym idzie, także bezkrytycznym odbiorem). Istnieje taki termin „obywatelstwo cyfrowe”, co oznacza postawę aktywną, upodmiotowioną, odpowiedzialną, solidarną…

Moment. Czyli maszyna sama nas szuka, żeby podsuwać wybrane treści?
– Tak, to jest dzisiaj największy kłopot. Zwłaszcza dla dzieci, które nie znają innego modelu rzeczywistości. W środowisku politologów zdiagnozowano to jako zjawisko „news finds me” (NFM) – po polsku: informacja sama mnie znajduje. Ono bazuje na przekonaniu – najczęściej błędnym – że zasadniczo wiem, co się na świecie dzieje. I jeśli stanie się coś krytycznego, to informacja sama mnie znajdzie. Po prostu szybko się wyświetli na ekranie. Nastolatek ma średnio co najmniej osiem kont w mediach społecznościowych. Na bazie tego, co w nich pisze, na co reaguje kliknięciem, udostępnieniem, komentarzem, jakich haseł szuka – to algorytm sam potem podpowiada mu określone treści i obrazy.
Ten algorytm generujący treści należy do przedsiębiorstwa, które jest poza czyjąkolwiek kontrolą i poza regulacjami prawnymi. Żadne państwo, żadna instytucja międzynarodowa, nie mają na nie wpływu. Z tego powodu Komisja Europejska wszczyna kolejne postępowanie przeciwko różnym platformom internetowym. Na podstawie wielu badań międzynarodowych, ale też polskich znamy konsekwencje działania algorytmu; to, w jakim kierunku prowadzi młodą osobę. Niestety w stronę treści krzywdzących, które mają wpływ destrukcyjny, niszczący na jego psychikę. Takie badania robiła m.in. organizacja Amnesty International, ale jest ich na świecie już mnóstwo. Ostatnio wypowiadał się też na ten temat brytyjski komisarz praw dziecka, podkreślając, że młodzież ma dostęp do niezwykle brutalnych obrazów pornograficznych. Pokazuje to również raport polskiej Fundacji Panoptykon. Podkreślam – algorytm rekomendacyjny nie jest neutralny! On ma cel wyłącznie komercyjny – przykucie uwagi użytkownika do ekranu, wydłużenie czasu jego pobytu w danej aplikacji.

Człowiek jest tylko środkiem do osiągnięcia sukcesu finansowego. W jaki sposób algorytm to robi?
– Wywołuje silne emocje, głównie lęk. Chodzi tu o informacje lękowe. Dodajmy: lęk to jest emocja uogólniona, trudno sobie z nim radzić. Strach jest z definicji konkretny: boję się tego lub tamtego, mogę to zrozumieć, przemyśleć. Strach i lęk górują, a wywołują je np. zdarzenia sensacyjne. Poza tym algorytm świetnie działa przez treści oparte na konflikcie, polaryzujące postawy.

To brzmi jak bardziej perfidna manipulacja starymi zasadami: w mediach najlepiej klika się, słucha i ogląda: konflikt, agresja i seks. Wszystko to, co odwołuje się do prymitywnych popędów i instynktów, do niekontrolowanych/gwałtownych emocji.
– Dlatego tak łatwo i szybko rozwija się dzisiaj ekstremizm. Mamy kłopot z umiarem, w tym kluczu dominują postawy skrajne. Piszą o tym autorzy naukowych koncepcji dotyczących źródeł współczesnego terroryzmu i ekstremizmu. Platformy społecznościowe rozwijają się w stronę bardzo inteligentnych algorytmów rekomendacyjnych, co uchodzi za tzw. trzecią falę terroryzmu.
Treści, które obserwowaliśmy od agresji dronów, to właśnie pole ekstremistyczne. To już nie jest tradycyjna propaganda masowa, jeden charyzmatyczny mówca. Tu przekaz jest zindywidualizowany. Aktywność tysięcy fałszywych profili brzmi jak spontaniczne głosy tysięcy osób – oddolne, autentyczne. Dezinformacja łączy się też z bardzo mocną narracją antyukraińską, która pochodzi od organizacji ekstremistycznych. Nakręcanych – jak wiemy – przez agendę polityczną sąsiada ze wschodu, który chętnie wykorzystuje te środowiska do siania propagandy i podsycania konfliktów. Specjaliści robią wiele, aby przeciwdziałać temu przekazowi. Podkreślają, że platformy wcale nie są neutralne, jak by się wydawało, jako nośnik treści. Nic bardziej mylnego! Algorytm rekomendacyjny zaczął pełnić funkcję medium (niewidzialnego, które nadaje treści na bazie zdefiniowania naszych oczekiwań). Powinniśmy mówić o nim jak o medium. Choć nie ma tradycyjnej redakcji czyli ludzkiego nadawcy, nie ma tzw. linii gazety, telewizji czy też radia, ona jest sprofilowana „pod” konkretną osobę przy ekranie.

Według mnie algorytm jest neutralny… ale etycznie. Jesteśmy przyzwyczajeni, że nadawca komunikatu odróżnia dobro od zła. Ma jakąś etykę, hierarchię wartości – niekoniecznie chrześcijańską, ale ma! Ma sumienie, dzięki czemu można wymagać odpowiedzialności za jego słowa, obrazy, czyny. Algorytm, tak jak sztuczna inteligencja, jest jednak maszyną zaprogramowaną na zysk za wszelką cenę. To jej jedyna wartość. Nie ma tu znaczenia, czy treść jest prawdą czy kłamstwem.
– Nawet prościej. Stara zasada „bad news sales” (złe informacje sprzedają towar), rozwinęła się tu wręcz nieprawdopodobnie. Pokazuje to ogromna ilość raportów z badań. Neutralne jest na przykład pudełko, neutralny jest smartfon, kiedy jest wyłączony, ale aplikacje, jakie on ma zainstalowane, już neutralne nie są. Algorytm jest automatycznym systemem, za którym stoi przedsiębiorstwo, a więc konkretny człowiek. Ludzie tu podejmują decyzje, jakim treściom nadać większą wagę, a jakim – mniejszą. W praktyce ten człowiek decyduje więc o tym, co mam widzieć na swoim ekranie. Pełni rolę gatekeepera, który jest znany z klasycznych mediów. To ktoś, kto selekcjonuje (filtruje) informacje publikowane przez bramę (gate), jaką stanowi ekran telewizora, a teraz też telefonu. Ingerencja w treść przekazu dokonuje się już na poziomie selekcji treści. Wystarczy porównać wiadomości w kilku różnych stacjach telewizyjnych – niby mówią o tych samych wydarzeniach, jednak często w sposób całkowicie odmienny. Selekcja nadaje informacjom różny status i rangę.
W przypadku internetu jest to selekcja negatywna. Przykład: chłopcy są „bombardowani” obecnie mocnymi przekazami mizoginicznymi, antykobiecymi. Dlatego, że interesują się w sieci siłownią, sportami walki. To jest normalne w ich wieku, chłopcy chcą być silni, sprawni i atrakcyjni. To wystarczy, żeby algorytm ukierunkowywał ich w stronę „macho”, podsuwał treści na temat kobiet jako istot gorszych, głupszych; przedmiotów seksualnych.

Stąd ostatnio wysyp tzw. szon patroli? Skrajnie szowinistyczny (pod pozorem zabawy) atak na dziewczyny i kobiety, bez powodu. Trudno powiedzieć, skąd się wziął i jakim cudem dziś zyskał popularność!
– Szon patrole ewidentnie nie wzięły się znikąd. Choć wydaje mi się, że to akurat zjawisko jest marginalne. Nadajemy mu większą wagę niż trzeba, bo jest skandaliczne i media dużo o tym piszą. Na pewno natomiast nie jest to zjawisko przypadkowe. Widać na nim typowe, ekstremistyczne modelowanie zachowań.
Algorytm – bazując na męskich lękach, strachu, niedowartościowaniu – generuje wiele teorii spiskowych. Oto trzeba np. przywrócić w świecie „normalność” polegającą na powrocie panów do władzy. Kobiety mają być sprowadzone do funkcji służebnych, użytkowych, opiekuńczych, altruistycznych, ale i seksualnych. Są one środkiem użycia; są traktowane przedmiotowo. Mężczyźni, odzyskując nad nimi władzę, odzyskują i pewność siebie.

Kobiety żyją po to, by spełniać oczekiwania mężczyzny, ich wymagania są nieważne?
– Powinny pełnić rolę podrzędną. Kiedyś tak było. Dzisiaj pełnią czasem rolę nadrzędną, są też lepiej od mężczyzn wykształcone, niezależne finansowo, upodmiotowione, świadome tego, czego chcą jako ludzie. W słabych mężczyznach budzą lęk. Algorytm bardzo mocno te postawy radykalizuje. Dzieci mają do tego dostęp. A to będzie mieć konsekwencje dla całego młodego pokolenia. Ono łatwo ulega teoriom spiskowym, radykalizacji i polaryzacji postaw.

Co jest antychrześcijańskie. Kościół, od Soboru Watykańskiego II, w wielu dokumentach papieży głosi równość płci, potępia dyskryminację kobiet, widząc w niej zło, grzech, skutek grzechu pierworodnego, dziejową niesprawiedliwość.
– Internet i algorytmy mają ogromną siłę socjalizacyjną, wychowawczą. I to jest dla dzieci po prostu niebezpieczne. Mówiąc o dzieciach, postrzegamy je zwykle infantylnie, podczas gdy problem dotyczy ważnej kwestii bezpieczeństwa społecznego, a nawet bezpieczeństwa państwa. Wbrew stereotypom obecnym w debacie publicznej, teorie spiskowe nie dotyczą głównie osób starszych, które nie radzą sobie poznawczo z tempem zmian i technologiami. Panuje przekonanie, że łatwo je „nabrać”, przestraszyć, coś od nich wyłudzić, oszukać. Ale z badań wynika, że grupą najbardziej podatną na teorie spiskowe są ludzie młodzi, głównie w wieku 14–16 lat.
Organizacje zajmujące się tą tematyką na Zachodzie, mające doświadczenie z metodami szerzenia islamistycznego terroryzmu, zadbały o rozwinięte programy przeciwdziałania radykalizacji – również w internecie. To tam następuje rekrutacja do grup terrorystycznych. Czasem nie są takie na początku, tendencja do przemocy eskaluje. Jest to możliwe dlatego, że młodzież jest bardzo podatna na radykalną, skrajną narrację. W Polsce młodych ludzi nie bada się od  tej strony. Korzystamy z badań amerykańskich, brytyjskich itd.

Młodzież jest nie tylko dziś zagubiona, ale na tym etapie dopiero kształtuje się tożsamość człowieka: kim jestem, kim mam być? Akceptacja grupy rówieśniczej jest ważniejsza niż opinie rodziców i osób bliskich. I młodzi mają tendencję do zachowań ryzykownych, brak im wyobraźni możliwych konsekwencji.
– Z wiekiem – statystycznie, bo nie zawsze tak jest – nabywa się doświadczenia, które można nazwać mądrością życiową. Bazuje się nie tylko na wiedzy, ale też właśnie na osobistym doświadczeniu. Człowiek jest mniej podatny na wpływ grupy, za to samodzielny, dojrzały. Odpowiada za innych, w tym za współmałżonka, czasem dzieci; podwładnych w pracy itp. Ma dystans do rzeczywistości. Nie można oceniać rzeczywistości tylko na podstawie tego, co widzimy w mediach. Na ulicach zwykle protestują starsi aktywiści, ale to są pozory. Dla badaczy zjawiska jest oczywiste, że algorytmy rekomendacyjne są najgroźniejsze dla dzieci i ludzi młodych. Po prostu w tym wieku nie da się jeszcze mieć dystansu i mądrości. To kluczowy czynnik, który nas uodparnia na propagandę i manipulowanie emocjami.

Gdybyśmy liczyli tylko na mądrość życiową, część z nas nigdy by może nie osiągnęła tej dojrzałości, która pozwala posługiwać się internetem. Może błędem jest więc zawężenie edukacji medialnej do nauki krytycznego myślenia i specyfiki cyberprzestrzeni? Dzieci potrzebują chyba najpierw kompetencji miękkich, komunikacji twarzą w twarz, zanim będą się uczyć kompetencji potrzebnych w sieci. Chodzi o nazywanie i wyrażanie emocji, samoocenę, obraz siebie i poczucie własnej wartości, radzenie sobie ze stresem, budowanie relacji, asertywność itp. Postawa asertywna uodpornia na presję grupy, ideologie, propagandę, media, a pewnie i algorytmy…
– W pełni się z tym zgadzam. Ja przez kilkanaście lat pracowałem z kolei w fundacji, gdzie robiliśmy programy edukacji cyfrowej, informacyjnej i medialnej dla szkół i przedszkoli. One zawsze uwzględniają wspomniane kompetencje miękkie. Umiejętność komunikacji i tworzenia zdrowych relacji. Edukacja medialna nie zaczyna się od urządzenia. Ona zawsze się zaczyna i kończy na kompetencjach, które nazwałbym emocjonalno-społecznymi. Zawsze!
My faktycznie popełniamy błąd, izolując przestrzeń cyfrową z całości życia, bo stanowi ona integralną część świata społecznego, relacji międzyludzkich. Przeceniamy tu kwestię nowych technologii, gdyż w nich postrzegamy zagrożenia – są nowe, często dla dorosłych mało dostępne. Rodzice pytają dzieci, jak obsługiwać nowe sprzęty w domu typu laptop, telefon, telewizor, itp. Wydaje się nam, że problem rozwiążą specjaliści od IT, ludzie znający się na komputerach. Świat cyfrowy jest jednak częścią świata społecznego i nie wolno o tym zapominać. Znakomicie to pokazują badania PISA. Są to cykliczne, dobre, międzynarodowe badania na temat dzieci i młodzieży, znane też w Polsce.

Jak wypadamy?
– Niestety we wszystkich raportach z badań PISA, które dotyczą kompetencji emocjonalno-społecznych, Polska „szoruje po dnie”. Najlepszy wynik w jednej z kategorii to czwarte miejsce od końca na świecie. W pozostałych jesteśmy ostatni lub przedostatni. To dramat, bo nawet uwzględniając zapóźnienie wynikające z okresu PRL-u, kiedy ludzie bali się iść do psychologa (wstyd!), a psychologia nie była znana większości z nas, dawno powinniśmy to trochę nadrobić. Po prostu dla wszystkich kolejnych rządów to nie było priorytetem. To rzutuje na bardzo wiele rzeczy, w tym funkcjonowanie w sferze prywatnej, czyli rodzinnej (domowej), w pracy, ale i w sferze publicznej, która wymaga zaufania oraz zdolności komunikacyjnych.
Uważam, że są trzy poziomy przygotowania człowieka do życia w społeczeństwie cyfrowym, w którym jesteśmy zanurzeni. Można to też nazwać poziomami edukacji medialnej. Są to, po pierwsze szeroko pojęta psychoedukacja, która koncentruje się mocno na rozwoju EQ, tj. inteligencji emocjonalnej, kształceniu empatii (jest to skuteczna ochrona przed różnymi formami przemocy – cyberprzemoc jest jedną z nich). Ten poziom jest związany także z rozwojem poznawczym, bo czasem wpadamy w pułapki na gruncie wiedzy, zniekształcenia poznawcze (m.in. stereotypy). Po drugie, ważna jest nauka dystansu do cyfrowego świata. To podejście strategiczne, które pozwala na krytyczne i refleksyjne podejście do mediów społecznościowych. Tego się nie uczy poprzez techniczne narzędzia, tylko poprzez dialog w sytuacji różnorodności. Ten aspekt jest bardzo podkreślany przez wiele instytucji i autorytetów (według prof. Tomasza Szkudlarka konieczna jest tutaj tzw. pedagogika dystansu). I trzeci poziom – dopiero ten powinien koncentrować się na praktycznych umiejętnościach technologicznych, np. selekcji wiarygodnych informacji, wykrywania dezinformacji, posługiwania się konkretnymi aplikacjami, tworzenia treści i komunikowania się z użyciem narzędzi cyfrowych.

---

Konrad Ciesiołkiewicz
Doktor nauk społecznych, politolog, psycholog, kierownik Centrum Analiz Społeczeństwa Informacyjnego Uczelni Korczaka; jest członkiem Państwowej Komisji do spraw przeciwdziałania wykorzystaniu seksualnemu małoletnich poniżej lat 15; laureat Nagrody Korczaka w 2023 r. za inicjatywy na rzecz praw człowieka i dziecka w środowisku społeczno-cyfrowym oraz Nagrody Prezesa Urzędu Ochrony Danych Osobowych im. Michała Serzyckiego w 2025 r. za wspieranie społeczeństwa obywatelskiego i wartości prywatności

 

Cały artykuł przeczytasz z aktywną subskrypcją

Odblokuj ten tekst i czytaj cały „Przewodnik Katolicki”.

W subskrypcji otrzymujesz dostęp do:

- wszystkich wydań on-line papierowego „Przewodnika Katolickiego”;

- wszystkich wydań online dodatków i wydań specjalnych „Przewodnika Katolickiego”;

- wszystkich płatnych treści publikowanych na stronie „przewodnik-katolicki.pl”.

Subskrybuj, pogłębiaj perspektywę i inspiruj w rozmowach.

Subskrypcja roczna

pk-produkt

Jeśli już znasz „Przewodnik Katolicki”, wykup subskrypcję by uzyskać dostęp do wszystkich treści z nowych numerów, numerów archiwalnych oraz całkowicie unikalnych treści publikowane jedynie w internecie.

Koszt rocznej subskrypcji  przy płatnościach miesięcznych to 239 zł. Przy płatności z góry za rok otrzymasz 25% rabat. Oszczędzasz 66 zł.

↺ Automatyczne odnowienie płatności; rezygnuj kiedy chcesz!

 

172,90 zł

Artykuł pochodzi z numeru 38/2025