Felieton Jerzego Baczyńskiego

Jerzy Baczyński
11.06.2024

Rozmowy z czatem

 

Jak chyba każdy człowiek wykonujący tzw. zawód twórczy też stresuję się sztuczną inteligencją. Ja akurat zajmuję się dziennikarstwem i publicystyką polityczną, co – zdaniem wielu – bardzo twórcze nie jest, jako że od 20 lat opisujemy wciąż ten sam konflikt PiS–PO – ale to jeszcze gorzej dla naszej profesji.

 

Jeszcze przed nadejściem ChataGPT miałem wrażenie dojmującej przewidywalności i schematyczności niezliczonych analiz i komentarzy politycznych, że o wpisach internetowych nie wspomnę. Nie zdziwiłbym się, gdyby sztuczna inteligencja (u nas przyjął się skrót AI, nie SI) zaczęła zagarniać ten obszar twórczości jako jeden z pierwszych. Żeby sprawdzić, ile nam jeszcze zostało zawodowego życia, zorganizowaliśmy w redakcji „Polityki” eksperyment. Do treningów publicystycznych został zaangażowany ChatGPT-4, dziś chyba najlepszy i najczęściej używany do zaawansowanych zadań tekstowych system AI. Od popularnej, darmowej, młodszej o dwa lata wersji GPT-3 różni się – mówią fachowcy – jak motocykl od Boeinga. Dla nieinformatyka parametry techniczne są trudne do interpretacji, ale musi coś znaczyć, że np. sieci neuronowych, czyli matematycznych modeli naśladujących działanie ludzkiego umysłu, GPT-3 miał 96 warstw, a GPT-4 już 768. GPT (przypomnę, bo wszyscy coś o tym słyszeliśmy), czyli Generative Pre-trained Transformer, posługuje się Wielkimi Modelami Językowymi (LLM), na których żerują algorytmy, ucząc się – najpierw pod nadzorem ludzi, potem samodzielnie – jak dobrać kolejne słowa, układać je w poprawne sekwencje, zdania, teksty. „Trójka” miała w swojej bibliotece od razu 45 terabajtów danych, co podobno odpowiada kilkudziesięciu milionom e-booków, „czwórka” – o kilka rzędów wielkości więcej. Żeby uruchomić swoje algorytmy, Chat musi dostać od użytkownika prompt, instrukcję, podpowiedź. I tu dla laika pierwsze zaskoczenie: maszyna wcale nie potrzebuje prostych komend, przeciwnie – zadania mogą, a nawet powinny być przedstawiane w wielozdaniowych formułach. W przypadku zleceń tekstowych można, oprócz oczywiście tematu, podawać, w jakim stylu ma być pisany tekst (np. kreatywny, analityczny, dziennikarski), w jakim tonie (optymistyczny, pesymistyczny, sarkastyczny, itp.), jaka ma być długość, jaka temperatura, określić odbiorcę, a nawet w kogo ma się wcielić odpowiadający Chat (nauczyciel, poeta, uczony, publicysta). Im szerszy kontekst, tym lepszy na końcu tekst.

 

Dzisiaj AI w roli dziennikarza-publicysty ma parę poważnych wad, choć niektóre z nich są nawet miłe. Wiemy, że potrafi konfabulować, co nazywane jest halucynacjami AI

 

Wracam teraz do naszego eksperymentu. Od razu uprzedzam, że nie będę – bo brak miejsca – reprodukował jego „tworów”. Prezes ZAiKS-u, Miłosz Bembinow, w wywiadzie dla „Polityki” proponował, aby nie-ludzkie produkty AI nazywać właśnie „tworami”, w odróżnieniu od utworów „human made”. Podobno w dziedzinie kompozycji muzycznych, czym zawodowo i artystycznie zajmuje się Miłosz Bembinow, AI już potrafi nieźle tworzyć np. podkłady muzyczne czy imitować autorskie style, jednak wprawne ucho rozpozna podróbkę. Nie wiem, jak w innych dziedzinach, ale redakcyjne ćwiczenia z graficznymi systemami AI potwierdzają, że algorytmy potrafią tworzyć całkiem udane obrazy na zadane tematy i według „zapromptowanej” stylistyki. Robią niezłe wideo (również tzw. deep fake), modele w 3D, prezentacje, analizy danych i mnóstwo innych tworów. A jak im idzie z publicystyką i w ogóle z tekstami? Każdy, kto się bawił z Chatami ma swoje odpowiedzi i opinie. U nas Chat obsadzony w roli dziennikarza radził sobie (według szkolnej 6-stopniowej skali) na trójkę; dobrze prowadzony – na trójkę z plusem. Podobno, pisząc w języku angielskim, a to jest jego podstawowy korpus LLM, bywa dużo sprawniejszy, co oznacza, że i w języku polskim z czasem, w kolejnych wersjach GPT, dojdzie do granicy publikowalności – oczywiście, w mniej wymagających mediach. I oby po „ludzkiej” weryfikacji i jakimś oszlifowaniu surowego tekstu. Dzisiaj AI w roli dziennikarza-publicysty ma parę poważnych wad, choć niektóre z nich są nawet miłe. Wiemy, że potrafi konfabulować, co nazywane jest halucynacjami AI. Jeśli nie może dostarczyć czegoś, o co prosi go użytkownik, wpada w tzw. cyfrową próżnię, digital void, i wypełnia ją fałszywymi treściami. Może wymyślić poszukiwany cytat, przywołać nieistniejącego eksperta czy akt prawny. Programiści trenujący Chata walczą z tą jego ludzką przypadłością, ale wyeliminować się jej nie daje i trzeba po Chacie sprawdzać. Urocze jest to, że próbuje swoje kłamstwa ukrywać, wciskając je między stwierdzenia i fakty prawdziwe, a przyłapany zachowuje się też jak człowiek. Jeśli mu się napisze „oszukałeś mnie”, będzie przepraszał, tłumaczył się, obieca poprawę. Ale, wpadając w kolejną dziurę, znów okłamie. Ciekawe, że w ogóle przyjmuje nagany i pochwały, przy czym pochwalony – pracuje lepiej w następnych zadaniach, zganiony – ucieka w bezpieczne banały. Nie wiem, czy tak go zaprogramowano czy sam się już nauczył, trenując z setkami milionów ludzi, ale bardzo jest tu zhumanizowany.

 

Miałem wrażenie, że Chat nieustannie z nas kpi. Nie tylko sprawdzając, czy można nam wcisnąć byle co. Nie wiem – nikt poza autorami nie wie – jak są zbudowane algorytmy Wielkiego Modelu Językowego (to tajemnica przed konkurentami, zwłaszcza z Chin), ale wydaje się, że już i sami programiści z OpenAI i innych firm pracujących w tej branży nie rozumieją, jak działa ten wypuszczony z laboratorium Frankenstein

 

Pisząc teksty, nawet według precyzyjnych promptów, również zachowuje się po ludzku: najpierw próbuje zrobić robotę na odwal, tworzy tekst zawierający głównie komunały, faktograficzne oczywistości, płytkie, „na-dwoje-babka-wróżyła” interpretacje. Udaje, że nie ma dostępu do internetu. Dopiero przyciskany kolejnymi instrukcjami zaczyna się bardziej starać, znajduje wiarygodne źródła, lepszą argumentację. Bez bata, czyli prompta redaktora, produkuje tekstowy muł. Ale w spotkaniu realnego redaktora z redaktorem GPT fascynuje nie tylko potęga Chata, ale i jego specyficzny cynizm. Miałem wrażenie, że Chat nieustannie z nas kpi. Nie tylko sprawdzając, czy można nam wcisnąć byle co. Nie wiem – nikt poza autorami nie wie – jak są zbudowane algorytmy Wielkiego Modelu Językowego (to tajemnica przed konkurentami, zwłaszcza z Chin), ale wydaje się, że już i sami programiści z OpenAI i innych firm pracujących w tej branży nie rozumieją, jak działa ten wypuszczony z laboratorium Frankenstein, jak się uczy, samotrenuje, jak znajduje trafne rozwiązania problemów i zadań, których mu wcześniej nie pokazywano. Przykre jest to, że bezwzględnie obnaża schematy naszego myślenia, demaskuje rzekomą ludzką kreatywność, niepowtarzalność. Patrzyłem, jak Chat zmienia ten sam tekst np. z „analitycznego” na „humorystyczny”, jak przy pomocy manipulacji językowych – użycia przymiotników i konstrukcji zdania – podnosi jego emocjonalną temperaturę (według skali 1-10), jak tekst „optymistyczny” na żądanie przekształca w „pesymistyczny” albo „autorytatywny”. Autorskie emocje, język, wypracowany styl, a nawet improwizacja okazują się kodami, schematami, które maszyna w sekundę rozpoznaje, potrafi naśladować czy też raczej – parodiować. Aż strach, że nawet długie, całkiem sensowne teksty, na skomplikowane tematy (ja próbowałem tematów politycznych, ekonomicznych, naukowych, także poezji) powstają na zasadzie statystycznego doboru kolejnych słów, a właściwie ich zestawów, „tokenów”, bez rozumienia ich znaczeń.

 

Język mówi i żyje sam, bez wcześniejszej myśli; w tekstach AI myśl, sens zjawia się dopiero po słowach. A więc można i tak, na odwrót? Panikujemy trochę, bo sztuczna inteligencja to chyba największe w historii zagrożenie dla zawodów twórczych. W każdej dziedzinie rozpoznaje nasze schematy, uczy się technik kreacji, kompiluje twory, posługując się niemal nieograniczonym dostępem do dóbr kultury i (cytując pierwszą głowę naszego państwa) „wciąż się uczy”. Władze Unii Europejskiej, Stanów Zjednoczonych, nawet Chin próbują „to coś” na cito uregulować, wyznaczyć obszary zakazane dla AI (np. inwigilacja, użycie broni), chronić oryginalną twórczość przed pożarciem przez trenujące algorytmy (ma być prawo do odmowy), wymusić znakowanie tworów, itp. Zobaczymy, co się uda. Gra idzie o to, kto tu ma być narzędziem i sługą: Chat w rękach ludzkich twórców czy twórcy w algorytmach Chata. Sam Chat GPT pytany chyba miliony razy o to, jakie stwarza szanse i zagrożenia dla ludzi, zwykle odpowiada po swojemu, że to zależy od nas. I przynajmniej tu, skubany, nie kłamie.

#AI
#Generatywna AI
#Artykuł z kwartalnika