Na stronach promujących naukę ogromną popularnością cieszyła się ostatnio grafika ukazująca guz nowotworowy piersi, którego rozwój udało się przewidzieć dzięki zastosowaniu sztucznej inteligencji (AI). Komentarz samego twórcy grafiki stanowił objaśnienie ważnego faktu: sztuczna inteligencja może być narzędziem, które przyczyni się do ratowania życia. Może ona jednak także stać się sprzymierzeńcem tych osób, które nie chcą działać na rzecz rozwoju ludzkości, ale zwyczajnie dążą do wyrządzenia komuś krzywdy.
Dezinformuj i rządź
Nieco filozoficznie można powiedzieć, że dezinformacja – czyli przekazywanie nieprawdziwych informacji w formie „czystej” lub wplecionych w te prawdziwe – istnieje tak długo, jak sama tradycja przekazywania sobie wiedzy przez ludzkość, czyli od samego początku istnienia naszego gatunku. To właśnie posługujący się dezinformacją spiskowcy stali często za zamachami na koronowane głowy, a także za pogromami i zbrodniami z nienawiści (najsłynniejsza dezinformacyjna publikacja, czyli Protokoły mędrców Syjonu, zawierającą skrajnie antysemickie treści, powstała przecież na początku XX wieku, na długo przed stworzeniem AI czy internetu w ogóle). Nie można zatem przyjąć, że dezinformacja stanowi nowe antyosiągniecie ludzkości, z którym mierzymy się od czasu upowszechnienia sieci internetowej. Jednak model językowy, zwany sztuczną inteligencją, przyczynia się do niespotykanego wcześniej nasilenia obecności dezinformujących treści w internecie, a przez to także do wzmacniania podziałów i hejtu. Wygenerowanie fałszywej informacji w formie wykresu, infografiki lub pisanego newsa zajmuje AI dosłownie chwilę – tyle samo co udostępnienie „fejka” uderzającego w jakąś grupę społeczną. Przykładem takiego działania mogą być generowane przez AI grafiki o nienawistnym charakterze: parę tygodni temu wiele grup internetowych służących poszukiwaniu miłości i przyjaźni zostało dosłownie „zalanych” wygenerowanymi przez AI zdjęciami młodych Ukrainek. Prezentowały one atrakcyjne dziewczyny w ciąży, które pozowały na tle brudnego mieszkania z jeszcze jednym dzieckiem w tle – opisy towarzyszące „zdjęciom” sugerowały, że kobiety szukają partnerów Polaków, którzy zajmą się ich dziećmi i umożliwią im kontynuowanie kariery. Przekaz tych grafik jest dobitnie (czy wręcz: prymitywnie) antyukraiński: mają one za zadanie uruchomić w odbiorcy myślenie, że Ukrainki są niechlujnymi, złymi matkami, które tak naprawdę stać na mieszkanie i dobry telefon – a zatem uchodźcy z Ukrainy w rzeczywistości wykorzystują naiwność Polaków. Po komentarzach zamieszczonych pod „zdjęciami” widać, że autorzy wpisów osiągnęli swój cel: zostały wzmocnione postawy ksenofobiczne i seksistowskie. Parę minut pracy z generatorem obrazów jest w stanie skutecznie ożywić dawne antagonizmy. AI bywa zatem wykorzystywana na froncie toczących się na świecie konfliktów zbrojnych, w których istotną rolę odgrywa wojna informacyjna – sztuczna inteligencja stanowi rodzaj nowoczesnej broni o ogromnym zasięgu.
Boty i nowy lincz
Generowanie dezinformujących grafik nie wyczerpuje możliwości napędzania hejtu przez sztuczną inteligencję. Boty oparte na AI są w stanie tworzyć tysiące obraźliwych komentarzy w ciągu paru minut – zorganizowanie nagonki na nielubianego polityka, aktywistę czy publicystę stało się zatem niebywale proste. Hejter, aby zburzyć czyjś spokój, nie musi szukać już realnych sprzymierzeńców swojej sprawy i przekonywać ich do udziału w linczu: wystarczy wydać odpowiednie polecenie AI. Jeśli hejter zna pewne informacje z życia przeciwnika, to jest w stanie przekazać je sztucznej inteligencji i spersonalizować hejt, tak by dotykał on czułych strun ofiary. Z atakiem botów wspomaganych przez AI mierzą się więc zarówno osoby zaangażowane w światową politykę, jak i rodzimi influencerzy tworzący treści lifestylowe. Jedno kliknięcie hejtera działa potężniej niż wypuszczenie sfory myśliwskich psów, które mają za zadanie dopaść zająca – pod filmem lub zdjęciem nielubianej osoby wylewają się setki wygenerowanych komentarzy, które odnoszą się w szyderczy sposób do wyglądu, pochodzenia czy intelektu kogoś, kogo hejter wziął na cel. Hejterem tym może być zarówno zwykły zjadacz chleba, jak i ktoś, kto piastuje wysokie stanowiska publiczne. Zmasowane ataki botów regularnie miały miejsce pod publikowanymi w social mediach wpisami Wołodymyra Zełenskiego, Baracka Obamy czy nawet obecnie urzędującego papieża. Celem tego typu akcji jest pogłębianie podziałów społecznych oraz zastraszanie przeciwników politycznych. Dzięki AI możliwe jest nie tylko błyskawiczne tworzenie obraźliwych tekstów, ale również generowanie wielu fałszywych kont w mediach społecznościowych lub na forach, co ma sprawiać wrażenie, że przeciwnicy danej postaci (np. polityka) są liczni i bardzo dobrze poinformowani o jego działaniach. Sztuczna inteligencja bywa także wykorzystywana do budowania „czarnego PR-u” określonych marek. Obiektem ataku dokonywanego przy wykorzystaniu AI stają się wówczas produkty konkretnych firm – można się wówczas zastanawiać, czy za zleceniem wygenerowania setek negatywnych komentarzy stoi bardzo zawiedziony pojedynczy konsument, czy raczej specjaliści od marketingu pracujący dla konkurencji. Rzecz jasna, konta, z których wystawiane są opinie, często można zweryfikować – jednak jeśli komentarze są bardzo liczne, to potencjalny konsument nie zawsze ma na to czas i ochotę.
Revenge porn i „nagie” zdjęcia
Hejt generowany za pomocą AI bywa także groźnym narzędziem w ręku rozgoryczonych byłych partnerów, którzy dążą do zemsty na eks. Ponieważ nie wszystkie rozstania przebiegają w sposób spokojny i z poszanowaniem wolności obydwu stron, uciekanie się do oczerniania i publicznego zawstydzania byłych partnerów stanowi od wieków oręż zranionej dumy odrzuconych narzeczonych. AI wynosi jednak zemstę i frustrację związaną z zakończeniem związku na nowy poziom – okrutną nowością tego typu jest generowanie tak zwanych revenge porn. „Porno zemsta” polega na udostępnianiu w internecie lub wysyłaniu jako SMS intymnych zdjęć lub filmów danej osoby bez jej zgody – zwykle dotyczy to właśnie byłych partnerów. Oczywiście działanie takie stanowi rodzaj przemocy seksualnej i grozi za nie odpowiedzialność karna. Niestety AI umożliwia przerobienie na pornograficzny materiał nawet zupełnie niewinnego zdjęcia lub filmu z udziałem kogoś, komu chce się zaszkodzić. Niejednokrotnie na świecie miały już miejsce sytuacje, w których ktoś (zwykle kobieta) dowiadywał się, że po sieci krąży np. jego erotyczne „nagranie” lub „rozebrane” zdjęcie. Osoba pokrzywdzona takim działaniem mierzyła się z palącym wstydem (choć wstydzić powinien się sprawca!), poczuciem upokorzenia i bezradnością – „rozbieranie” czyichś zdjęć i inne przeróbki nie zawsze są traktowane przez organy ścigania z należytą powagą. Autorzy opracowania Deep fakes i nadużycia na tle seksualnym – prawo wobec wyzwań syntetycznych mediów zauważają, że już bardzo młode osoby są narażone na cyfrową odmianę przemocy seksualnej, w którą zaangażowana jest sztuczna inteligencja: „(…) problemem rozpoznanym w licznych krajach jest posługiwanie się przez dzieci i młodzież aplikacjami wykorzystującymi AI do tzw. «rozbierania zdjęć» (z ang. nudifying apps). Stają się one coraz bardziej dostępne, zaawansowane, trudne do kontrolowania i stwarzają istotne problemy społeczne. Tego typu narzędzia umożliwiają generowanie realistycznych zdjęć przedstawiających osoby w nagiej formie. Ich bazę stanowią zazwyczaj neutralne fotografie, takie jak zdjęcia w mediach społecznościowych”.
Zjawiska tego rodzaju przyczyniają się do normalizacji cyfrowej przemocy – „rozbieranie” zdjęć danej osoby albo tworzenie filmów z jej udziałem bywa traktowane jako zemsta, ale także jako zabawa, z której skutków autorzy nie do końca zdają sobie sprawę. Dla wielu nastolatków czy studentów „rozebranie” kogoś przy pomocy AI wydaje się działaniem niewinnym również dlatego, że nikt z nimi na ten temat nie rozmawiał – nauczyciele rzadko kiedy podejmują z uczniami tematy tego rodzaju, bo zwyczajnie nie wiedzą, kiedy i w jaki sposób to robić.
Internetowe strefy no-go
Wcale nie będzie przerysowaniem stwierdzenie, że pewne zakamarki internetu, w których króluje AI, stanowią dla organów ścigania prawdziwe strefy no-go. Policjanci i prawnicy często nie wiedzą, jak tropić i jak traktować hejterskie grafiki czy artykuły, których „autorem” jest sztuczna inteligencja. Oczywiście, przynajmniej w teorii wiemy, że AI stanowi jedynie narzędzie, a nie prawdziwie rozumny byt – winę za nieodpowiednie jego wykorzystanie można więc przypisać tym osobom, które na przykład zlecają AI przerobienie czyichś zdjęć w niegodziwy sposób. Czasami jednak trudne jest ustalenie, kto dane zdjęcie pobrał, kto je przerobił, a kto udostępnił. Co więcej, niektóre zdjęcia czy filmy generowane przez AI są na tyle realistyczne, że samo ustalenie ich prawdziwości zajmuje sporo czasu – a przecież AI potrafi generować teksty i filmy szybciej, niż „analogowa” prokuratura jest w stanie wszczynać kolejne śledztwa. Autorzy cytowanego wcześniej raportu wskazują, że do skutecznej walki z nadużyciami AI konieczne jest stworzenie nowych aktów prawnych: „Rozwój generatywnej sztucznej inteligencji przyczynia się do wykształcenia nowych problemów natury prawnej, co wymaga reinterpretacji istniejących bądź tworzenia nowych adekwatnych przepisów, zwłaszcza wobec konieczności wdrażania przez Polskę regulacji o charakterze ponadnarodowym”.
AI nie może być dłużej traktowana jako zabawka lub zwyczajny nowy program. To potencjalnie bardzo cenne, ale i niebezpieczne narzędzie. Brak przepisów prawnych w zakresie wykorzystywania jej przypomina sytuację, w której nie istniałyby regulacje dotyczące dostępu do broni palnej. Tylko precyzyjne przepisy oraz rzetelna edukacja cyfrowa są stanie ochronić nas przed zalewem generowanego przez AI hejtu.
Bez wątpienia, powołując do istnienia sztuczną inteligencję, stworzyliśmy coś nowego i zaskakującego – teraz nadszedł czas na to, aby wziąć za to „stworzenie” odpowiedzialność.
Cały artykuł przeczytasz z aktywną subskrypcją
Odblokuj ten tekst i czytaj cały „Przewodnik Katolicki”.
W subskrypcji otrzymujesz dostęp do:
- wszystkich wydań on-line papierowego „Przewodnika Katolickiego”;
- wszystkich wydań online dodatków i wydań specjalnych „Przewodnika Katolickiego”;
- wszystkich płatnych treści publikowanych na stronie „przewodnik-katolicki.pl”.
Subskrybuj, pogłębiaj perspektywę i inspiruj w rozmowach.
Masz konto? Zaloguj się
Subskrypcja miesięczna

Tylko teraz otrzymujesz czternastodniowy bezpłatny dostęp testowy do serwisu internetowego Przewodnika Katolickiego. Po jego zakończeniu płacisz jedynie 19,90 zł miesięcznie!
↺ Automatyczne odnowienie płatności; rezygnuj kiedy chcesz!
Subskrypcja roczna

Jeśli już znasz „Przewodnik Katolicki”, wykup subskrypcję by uzyskać dostęp do wszystkich treści z nowych numerów, numerów archiwalnych oraz całkowicie unikalnych treści publikowane jedynie w internecie.
Koszt rocznej subskrypcji przy płatnościach miesięcznych to 239 zł. Przy płatności z góry za rok otrzymasz 25% rabat. Oszczędzasz 66 zł.
↺ Automatyczne odnowienie płatności; rezygnuj kiedy chcesz!















