Piętnaście lat – tyle czasu dziennikarz radiowy i lektor Jarosław Juszkiewicz z Katowic był polskim głosem nawigacji Google Maps. Niestety, właśnie ogłosił, że został zastąpiony przez głos wygenerowany przez sztuczną inteligencję – prawdopodobnie tańszą niż usługi żywego człowieka. „Sztuczna inteligencja przetacza się przez świat ludzi pracujących głosem jak wielki walec. A ja mogę własnym, ludzkim głosem powiedzieć, chyba po raz ostatni: «Uśmiechnij się i kieruj się na południe». Chociaż nie, kierujcie się intuicją i sercem, bo tego jeszcze AI nie potrafi” – tymi słowami dziennikarz pożegnał się ze swoimi „słuchaczami” na koncie w serwisie Instagram.
Kiedy przeszkadza nam AI
To nie pierwszy raz, gdy nagrane przez niego komunikaty zostały zastąpione tymi od AI. Gdy cztery lata temu amerykański gigant technologiczny „zdjął” pana Jarka z polskich map, protesty użytkowników przywróciły go na miejsce już po tygodniu. Nie wiadomo, czy tak stanie się i tym razem. Jednak pierwsze reakcje wyrażone w mediach społecznościowych pokazują jasno, że przywiązujemy się do ludzi i wolimy nawet nagrany głos pana Jarka niż choćby najlepszy głos robota.
Informacja zbiegła się w czasie z inną sensacją: oto publiczne Radio Kraków, które wcześniej uruchomiło kanał w całości generowany komputerowo, wyemitowało stworzony przez AI wywiad z nieżyjącą od 2012 r. Wisławą Szymborską. Choć jej „wypowiedzi” brzmiące autentycznym głosem polskiej noblistki były wcześniej autoryzowane przez jej byłego sekretarza, to i tak zawrzało. O niedopuszczalności takich praktyk wypowiedział się nawet minister cyfryzacji, a petycja przeciwko podobnym działaniom zebrała tysiące podpisów.
Eksperymenty na żywym organizmie
Już wiadomo jednak, że kanał radiowy OFF Kraków będzie właśnie tworzony w ten sposób. Dziennikarzami mają być w nim boty, którym nadano imiona, wymyślono poglądy, twarze, a nawet historie życia. Gośćmi ich programów mają być m.in. nieżyjące postaci historyczne, takie jak Józef Piłsudski – emisję wywiadu z nim zaplanowano już na 11 listopada.
„Sprawa OFF Radia Kraków to ważne memento dla całej branży. To groźny precedens uderzający w nas wszystkich. To uchylenie furtki – a może wręcz otwarcie bramy – do świata, w którym doświadczonych pracowników od lat związanych z sektorem medialnym oraz osób zatrudnionych w branżach kreatywnych zastąpią programy. To zarazem brama do świata pozorów i manipulacji” – piszą w swojej petycji protestujący przeciwko takim pomysłom słuchacze i zainteresowani sprawą.
Co ciekawe, wcześniej OFF Radio Kraków tworzone było przez ludzi. W sierpniu jednak niemal wszystkich zwolniono, a władze radia podają, że przyczyną była niska słuchalność tego pasma. Odżegnują się równocześnie od sugestii, że ludzi zwolniono, by zastąpić ich sztuczną inteligencją. „Nowe OFF Radio Kraków ma być w przyszłości kierowane do młodszego słuchacza w wieku 18–26 lat, pod tym kątem konstruowana jest już playlista. Pomysł, by w okresie przejściowym przeprowadzić projekt radiowy z użyciem narzędzi sztucznej inteligencji, zrodził się przy okazji. To element naszego udziału w debacie na temat szans i zagrożeń, jakie niesie ze sobą rozwój AI. Założyliśmy, że najpóźniej po trzech miesiącach zostanie przeprowadzona ewaluacja eksperymentu” – czytamy w oświadczeniu władz Radia Kraków. Dodają, że nie będą przeprowadzać tego eksperymentu na innych antenach rozgłośni.
Gdy AI wymyka się spod kontroli
Intensywna debata o granicach wykorzystania sztucznej inteligencji trwa w Polsce, odkąd pojawił się pierwszy, jeszcze nieudolny, ale dostępny dla każdego Chat GPT. Wypowiadają się zarówno eksperci od nowych technologii, jak i ekonomiści, bankierzy, etycy, filozofowie, a nawet Kościół. Zdaniem papieża Franciszka „to na polu innowacji technologicznych rozegra się przyszłość gospodarki, cywilizacji, samej ludzkości” (wypowiedź z czerwca 2024 r. podczas spotkania z przedstawicielami włoskiej fundacji Centesimus Annus). Jednocześnie w tym samym czasie Szwedzka Akademia Nauk postanowiła nagrodzić Noblem z fizyki naukowców, dzięki którym AI mogła zacząć funkcjonować tak, jak widzimy to dzisiaj.
Intensywność debaty oraz reakcje na sytuacje, gdy boty z tzw. generatywną sztuczną inteligencją zastępują ludzi, jasno pokazują, że tempo rozwoju technologicznego znacznie wyprzedza ludzkie możliwości zapanowania nad tą sytuacją. Wygląda na to, że rozwiązania AI wdzierają się w życie osób, które dopiero co dowiedziały się o ich istnieniu i nawet częściowo nie ogarniają umysłem tego, do czego rozwiązania te są zdolne.
Potwierdzają to przeprowadzane w Polsce badania opinii dotyczące sztucznej inteligencji. Według opublikowanego kilka tygodni temu badania CBOS, o jej istnieniu słyszało „już” albo „jedynie” 75 proc. ankietowanych. 38 proc. respondentów widzi w niej więcej zagrożeń niż potencjalnych korzyści. Wśród zagrożeń najmocniej obawiamy się sytuacji, gdy sztuczna inteligencja odbierze ludziom pracę, spowoduje wzrost nierówności społecznych, albo że będzie inwigilować nasze prywatne życie, niosąc ryzyko wykorzystania tego przez przestępców. Jednocześnie ankietowani zapytani, czy w najbliższej przyszłości ich własne stanowisko może zostać obsadzone przez bota, w aż 70 proc. odpowiedzieli, że tak się nie stanie. Szanse na korzyści płynące z dynamicznego rozwoju AI widzimy natomiast przede wszystkim w medycynie.
Jak w Matrixie
Za dynamicznym rozwojem AI nie nadąża nie tylko nasza refleksja, ale również i prawo. Rok temu słyszeliśmy o głośnym proteście hollywoodzkich aktorów i scenarzystów przeciwko braku regulacji prawnych dotyczących możliwości wykorzystania ich pracy przez sztuczną inteligencję. Strajkowali również po to, by przestrzec szukających oszczędności producentów filmowych przed zastępowaniem ludzi botami w funkcjach takich jak napisanie scenariusza czy gra aktorska. Aktorzy szczególnie obawiają się tego, że ich wizerunki będą w przyszłości służyły sztucznemu generowaniu ich postaci w filmach, razem z głosem, mimiką i osobowością. Scenarzyści i pisarze skryptów boją się z kolei tego, że dziś firmy szkolą boty na ich twórczości właśnie po to, by w przyszłości zastąpić ich pracę.
Zagrożone są jednak nie tylko potencjalne miejsca pracy w takich zawodach jak dziennikarstwo, aktorstwo, scenopisarstwo, fotografia czy produkcja filmowa. Zagrożone może być także ogólne bezpieczeństwo na poziomie najbardziej podstawowym: życia. Eksperci zauważają już, że AI może zostać użyta do niekontrolowanej produkcji broni, w tym broni autonomicznej. Może też stać się tak, że ludzie stracą kontrolę nad opracowywanymi w laboratoriach systemami o niszczącym potencjale, o czym, jak by nie patrzeć, słyszymy od co najmniej kilku dekad dzięki takim filmom jak Matrix czy Terminator. Właśnie na te zagrożenia zwrócili uwagę eksperci najbliżsi branży nowych technologii w raporcie na temat wyzwań czasu rozwoju AI, jaki zlecił im amerykański Departament Stanu. Po lekturze tego raportu Biały Dom z miejsca zapowiedział, że sprawa regulacji dotyczących rozwoju sztucznej inteligencji jest obecnie priorytetowa.
„Przyjęte [dotychczas – red.] regulacje są próbą znalezienia remedium na niektóre z zagrożeń, ale nie są oczywiście kompletne ze względu na wiele innych, ciągle słabo rozpoznanych problemów. Pogodzenie tych dwu spraw, ochrony bezpieczeństwa z jednej strony, a niezbędnej dla rozwoju innowacyjności z drugiej, jawi się dzisiaj jako wyzwanie o olbrzymich konsekwencjach dla nas wszystkich. Nie powinno to jednak podważać przekonania, że prace nad uregulowaniem problematyki AI muszą być szybko i zdecydowanie prowadzone we wszystkich krajach, oczywiście z uwzględnieniem szerokiego kontekstu międzynarodowego” – przekonuje prof. Michał Kleiber, specjalizujący się w temacie rozwoju technologii redaktor naczelny miesięcznika „Wszystko co najważniejsze”.