Obecne tempo rozwoju sztucznej inteligencji jest zarówno fascynujące, jak i przerażające. W listopadzie 2022 roku, a więc raptem 15 miesięcy temu, amerykańska firma OpenAI udostępniła publiczności po raz pierwszy ChatGPT. Była to pierwsza tak zaawansowana technologia oparta na sztucznej inteligencji. Komputery przetrząsały internet, zasysały miliardy danych, „czytały” portale, gazety, blogi, książki, prace naukowe, serwisy społecznościowe, magazynując informacje, ale przede wszystkim tworząc algorytmy pozwalające odpowiadać na pytania użytkowników. Jak to działa? Oto próbka:
„MS: Jak w pięciu zdaniach wytłumaczyć czytelnikom »Przewodnika Katolickiego«, jak działa ChatGPT-4?” – pytam po polsku. I w mgnieniu oka wyświetla się odpowiedź:
„ChatGPT: ChatGPT-4 to zaawansowany model językowy oparty na sztucznej inteligencji, który potrafi generować teksty odpowiadające na pytania użytkowników, imitując ludzki sposób pisania. Działa na podstawie ogromnej bazy danych tekstowych, ucząc się z różnorodnych źródeł, aby zrozumieć i produkować język na wysokim poziomie. Użytkownik wpisuje pytanie lub polecenie, a ChatGPT-4 analizuje je, wybierając najbardziej odpowiednią odpowiedź z nauki przeszłych interakcji. Model jest zaprojektowany do różnorodnych zadań, w tym odpowiadania na pytania, tworzenia treści czy tłumaczenia tekstu, starając się dostosować do kontekstu zadania. Pomimo zaawansowania, ChatGPT-4 nie posiada własnej świadomości ani zrozumienia; odpowiada na podstawie algorytmów i danych, na których się nauczył, co oznacza, że jego odpowiedzi mogą wymagać weryfikacji”.
Dodajmy, że GPT-4, udostępniony kilka miesięcy temu, jest znacznie bardziej zaawansowany i popełnia mniej błędów niż modele oddane do użytku wcześniej.
I choć od początku „modele językowe” dobrze radziły sobie – jak sama nazwa wskazuje – z tekstem, to inne rodzaje generatywnej sztucznej inteligencji (czyli wytwarzającej coś na żądanie człowieka) rozczarowywały. AI popełniała poważne błędy, np. tworząc zdjęcia, ludzie mieli sześć palców, a napisy na generowanych książkach czy gazetach nie miały sensu. Filmy były beznadziejne. Miały w sobie coś mrocznego i niepokojącego, jak jakieś senne koszmary.
Modele graficzne jednak w ekspresowym tempie szły naprzód. Kolejne wersje generatorów zdjęć, obrazów czy rysunków nie popełniały już błahych błędów, były coraz precyzyjniejsze, coraz trudniej było je odróżnić od rzeczywistości. Najwolniej jednak szedł rozwój filmów. Do czasu. Dokładnie w połowie lutego szef OpenAI Sam Altman ogłosił powstanie modelu SORA, który miał być najdoskonalszym dotąd ogólnodostępnym narzędziem generującym wideo. By pokazać możliwości Sory, Altman prosił internautów o podsyłanie propozycji komend i publikował wygenerowane filmy.
Nie było w nich nic tajemniczego ani mrocznego.
To były najwyższej rozdzielczości ruchome obrazy, których nie sposób odróżnić od filmów nagranych komórką albo kamerą. Różniły się od tworów wcześniejszych modeli tym, czym różni się senny koszmar od ostrego i wyraźnego obrazu, który rejestrują nasze oczy w słoneczny dzień.
W kilka miesięcy nastąpił zupełnie niewyobrażalny postęp. Strach pomyśleć, co będzie dalej. Jeśli sztuczna inteligencja tak szybko zmienia samą siebie, jak szybko będzie zmieniać nasz świat?