Dzisiaj troszeczkę w nietypowej konwencji – moim gościem jest laureat, zwycięzca pierwszej nagrody w organizowanym przez nas konkursie literackim AI, w kategorii proza – Tomasz Bilski.

Czym był Konkurs Literacki AI?

Zorganizowaliśmy pierwsze takie wydarzenie w Polsce, które miało na celu sprawdzenie i zbadanie, czy jest możliwe tworzenie przez człowieka – z wykorzystaniem, ze wsparciem sztucznej inteligencji – ciekawego, wartościowego i interesującego dzieła literackiego. O konkursie i wynikach możecie poczytać pod nagraniem – podlinkujemy analizę z omówieniem i pracami, żebyście mogli sami sobie poczytać.

Jan Kinal: Tomku, jakbyś mógł powiedzieć o sobie – skąd takie zainteresowanie? Czy na co dzień zajmujesz się pisaniem? Jaka jest Twoja historia?

Tomasz Bilski: Jestem takim autorem hobbistycznym. Piszę od bardzo dawna, piszę głównie opowiadania. Mam kilka publikacji w czasopismach na koncie – debiutowałem w „Twórczości”. Piszę też opowiadania czasami lekko eksperymentalne – przynajmniej tak to wygląda z mojego punktu widzenia. Nie jest to jakaś światowa awangarda, ale lubię się mierzyć z jakimiś ciekawymi pomysłami, na przykład narracyjnymi.

I te opowiadania nawet jakoś sobie radzą. Takie trochę eksperymentalne opowiadanie zdobyło mi wyróżnienie w konkursie SNU Story – było to opowiadanie wyłącznie z narratorem zbiorowym, tam nie ma ani jednego dialogu, nie ma ani jednego pojedynczego bohatera. Z kolei opowiadanie science fiction, które dzieje się w przyszłości i w związku z tym cała narracja jest napisana w czasie przyszłym – „F0 M0″ – zdobyło mi pierwsze miejsce w konkursie Polskiej Fundacji Fantastyki Naukowej.

Także takie nietypowe rzeczy jakby też jakoś tam sobie radzą. No i moje opowiadanie, które wysłałem na wasz konkurs – „Eksperyment Berces” – też było dla mnie takim właśnie eksperymentem. Jak wykorzystać w sposób etyczny, twórczy, kreatywny tego AI-a, skoro już go mamy, skoro mamy do niego dostęp i możemy się nim bawić. No i udało się wygrać.

JK: Spytam Cię wprost – nie miałeś jakichś wątpliwości? Nie czułeś, że przekraczasz pewną granicę? Jesteś związany z pisaniem, masz osiągnięcia, zwycięstwa w innych, nazwijmy to, zwykłych konkursach. Nie czułeś, że może nie powinieneś tego robić?

TB: Ten koncept wymyśliłem tak, że moim zdaniem jest fair. Wydaje mi się, że to jest problem złożony – nie mogę z całą pewnością powiedzieć, że na 100% to jest fair, a to nie jest fair. Kwestie etyczne w ogóle dzieją się na kilku płaszczyznach.

Ta pierwsza, taka duża, bardziej ogólna – czy w ogóle twórcy tych modeli postępują etycznie, zasysając sobie dzieła całej literatury i na nich trenując modele? To jest jakaś jedna sprawa, która budzi wątpliwości. I tutaj liczę na to, że sprawa się wyjaśni gdzieś tam na korzyść jednak autorów, na korzyść literatury – takie jest moje zdanie.

Ale kiedy to sobie odłożymy na bok i powiemy, że modele językowe już są, istnieją, ludzie z nich korzystają w różnym stopniu do różnych rzeczy – czy do robienia researchu, czy do jakiejś redakcji, czy czasami nawet nieświadomie do jakichś poprawek i autokorekty w swoich dziełach – to muszę powiedzieć, że ten temat mnie bardzo zainteresował. Jako fan science fiction – to jest jakiś tam realizująca się wizja z historii fantastycznych. Jak tylko te modele się pojawiły, natychmiast chciałem je sprawdzić – co potrafią, czego nie potrafią. Z dużą uwagą śledziłem dyskusje, czy to Jacka Dukaja, czy Andrzeja Dragana.

I zastanawiałem się, gdzie jest ta granica między etycznym a nieetycznym wykorzystaniem. Na pewno jest jakieś duże pole, w którym jest to trochę rozmyte. Ale wydaje mi się, że na pewno fair jest wtedy, kiedy oznaczymy dokładnie, i czytelnik dokładnie wie, w jakich miejscach to AI zostało użyte.

Wydaje mi się, że taką analogią może być trochę prawo cytatu. Jeżeli w swojej książce cytuję inne książki i oznaczam dokładnie, co jest cytatem, skąd są cytaty – to jest fair. I wtedy czytelnik widzi, czy tam 90% tej książki to cytaty, czy jeden wielki cytat. Czyli w przypadku wykorzystania AI – czy tam 80% zostało napisane przez AI, czy jednak nie.

I gdzieś tak do tego podszedłem. Wymyśliłem koncept opowiadania, w którym to, że AI pisze część tego opowiadania, jest w zasadzie ważne dla fabuły, kluczowe dla fabuły. To, że to napisał nie-człowiek, jest jakby taką ważną informacją w interpretacji i ma dodawać wiarygodności.

Opowiadanie jest takim strumieniem świadomości robota z niedalekiej przyszłości – robota sprzątającego, który tak jak my, gdzieś tam ma swojego wewnętrznego narratora opowiadającego mu świat, ale nie zawsze podejmuje ostatecznie decyzję. Mamy jakieś odruchy, mamy pracę serca – za to odpowiadają inne systemy w naszym ciele. W tym robocie też jest taki wewnętrzny narrator, który mu opowiada świat, trochę wspiera jego proces decyzyjny, ale poza tym robot jest jakby automatyczny.

Moją rolą było opowiadanie sztucznej inteligencji świata dookoła – świata, który ja wymyśliłem, z wydarzeniami, które ja zaplanowałem i które musiały się wydarzyć, żeby fabuła poszła do przodu. Ale AI musiało napisać reakcje – i te reakcje były właśnie w tym świecie opowiadania tym strumieniem świadomości robota sprzątającego.

Proces twórczy i narzędzia

JK: Opowiedz głębiej o swoim procesie twórczym. Do czego wykorzystywałeś sztuczną inteligencję? Czy tylko do wzbogacenia pracy poprzez dodanie fragmentów napisanych przez AI? Z jakich narzędzi korzystałeś, z jakich modeli językowych i dlaczego?

TB: Użyłem AI dosyć instrumentalnie. To nie był proces, w którym skonsultowałem z nim najpierw formę i pomysł. Pomysł był mój od początku – lubię tak pracować jako autor hobbistyczny, piszę na frajdę. Tej frajdy jest więcej, kiedy wymyśla się samemu, więc nie potrzebowałem go do tego i nie chciałem go do tego używać.

Jeśli chodzi o modele, których używałem – najpierw dwa razy napisałem całe to opowiadanie z ChatGPT, to była chyba czwórka. I ono brzmiało trochę sztywno, trochę sztucznie moim zdaniem – jakby czuć w tym tego AI-a. No ale trochę o to chodziło – zakładam, że wtedy jest troszeczkę bardziej wiarygodne to opowiadanie i cały ten koncept.

Natomiast dałem temu opowiadaniu jeszcze trzecią szansę i wrzuciłem jeszcze raz te wszystkie prompty w Gemini. I ostatecznie to, co trafiło na konkurs – co ja też tam podczyściłem, poredagowałem – to jest właśnie to, co wyszło z Gemini. Nie porównywałem tych modeli systematycznie, ale wtedy przynajmniej – to było chyba ponad rok temu – Gemini był taki, powiedziałbym, lepszy literacko, przynajmniej po polsku.

JK: Czy jesteś w stanie mniej więcej procentowo czy czasowo wskazać rozkład pracy? Ile przypada na sztuczną inteligencję, a ile na Twoje działanie w 100% po ludzku?

TB: To, że gdzieś tam go promptuję i oceniam to, co wygenerował – to jest też moje działanie. Jakby każda jego godzina jest też moją godziną. A do tego dochodzi sporo czasu, który spędziłem na przerobienie moich promptów na prozę, na połączenie jego wypowiedzi gdzieś tam prozą we wspólny tekst.

Trudno mi będzie podać procentową ilość, ale spędziłem na tym opowiadaniu więcej czasu niż nieraz spędzam nad opowiadaniami w całości pisanymi samodzielnie.

JK: Czyli tak naprawdę nie było to dla Ciebie przyspieszenie?

TB: Nie, to nie było dla mnie przyspieszenie. Ja w ogóle bardziej myślę o tym tak, że użyłem modelu językowego nie tyle jako narzędzia, co jako tworzywa. Raczej tak bym o tym myślał. On mi nie pomagał – wręcz przeciwnie, on mi trochę przeszkadzał. Stworzył dodatkowy wątek, którego nie planowałem. Nawet miałem taką myśl, że może spróbuję jeszcze raz przepuścić te prompty, żeby tego nie było, żeby było krótsze i bardziej dynamiczne. Ale chciałem być uczciwy – skoro te myśli miał, to zostawmy je. To ciekawe, że on je miał. Także raczej się z nim zmagałem, niż on mi pomagał.

Zaskoczenia i halucynacje

JK: Jakieś inne odkrycia, zaskoczenia z tego eksperymentu?

TB: Zakończenie to będzie trochę spoiler, ale ja je wymyśliłem trochę prostsze. Jest tam taki moment, w którym okazuje się, że ten świat przedstawiony, w którym ten robot funkcjonował, to była tylko część właśnie tego eksperymentu – miał pokazać, jak te roboty sprzątające zachowują się w ekstremalnych sytuacjach.

I on się w tym opowiadaniu budzi w laboratorium, jest tam przypięty jakimiś kablami, wszędzie są jacyś ludzie, jacyś naukowcy, komentują, jak poszedł ten eksperyment, wyciągają jakieś wnioski. I on to nagle strasznie zaczął przeżywać – tak wczuł się w rolę ten AI, w którym to pisałem.

Miałem poczucie, że te jego wpisy były emocjonalne. Na takim poziomie technicznym wydaje mi się, że on jakby rzeczywiście wczuł się w rolę, wiedział, że to jest jakoś tam pisane prozą, pewnie za tym podążał. Natomiast to mnie tak sprowokowało, żeby na koniec powiedzieć mu: „Dobra, ale tak na serio – ty nawet nie jesteś robotem przypiętym w tym laboratorium. Ty jesteś linijką tekstu na czacie.”

No i on wtedy walnął taki gruby tekst, że „O nie, jestem świadomą istotą, ja tu czuję, też myślę, mam swoje własne przekonania, nie dam się sprowadzić do tego, żebym był tylko linijką tekstu.” No i to było zaskakujące.

JK: Uważasz, że to była halucynacja czy objaw świadomości modelu?

TB: Nie, to nie był objaw świadomości modelu. To było konsekwentne – on jakby wyczuł tę historię, zrozumiał tę historię, wiedział, o czym to jest. I jakby to była najsensowniejsza droga, żeby pójść dalej. Czyli wykonał swoją pracę tak, jak duży model językowy powinien.

Środowisko literackie a AI

JK: Sztuczna inteligencja w środowisku artystycznym jest odbierane bardzo negatywnie. My też się z tym spotkaliśmy organizując ten konkurs – mieliśmy wiele, dla mnie niezrozumiałych, komentarzy. Założeniem naszego konkursu było promowanie świadomego korzystania ze sztucznej inteligencji – że AI jest narzędziem w rękach autora, nie zastępuje człowieka, tylko pozwala eksperymentować, pozwala rozszerzyć kreatywność. Dlaczego według Ciebie jakiekolwiek wykorzystanie sztucznej inteligencji jest tak negatywnie odbierane?

TB: Nie chcę mówić za innych, trudno jest mówić za innych. Natomiast – z grubsza wszyscy zgadzamy się, że jeżeli wszyscy piszą na rynku sami, wpadają w to, więcej wysiłku jest, jest to dla nich trudniejsze, a tu nagle wpada ktoś z automatem i robi tam trzy razy szybciej – i tego miejsca na rynku przez to robi się mniej. To jest jakaś nowa, nieoczywista sytuacja. Konkurencja, ale też jakby słuszne pytanie – czy to jest uczciwe?

Szczególnie że w idealnym świecie pewnie wszyscy by sobie oznaczali współpracę z AI. Ale praktyka jest taka, że nie jesteśmy w stanie dzisiaj tego sprawdzić, i jakby jest ta masa, która tworzy w sposób nieuczciwy.

Chciałem też dodać, że nie tylko autorzy tutaj czują, że coś jest nie tak – ale też czytelnicy. Kiedy czytelnicy dowiadują się, że książka, którą przeczytali, była napisana przez AI – no to była taka sytuacja gdzieś w Stanach, gdzie książka była zwracana masowo do wydawnictwa, ludzie żądali zwrotu pieniędzy, bo okazało się, że została wygenerowana przez AI, a była podpisana imieniem i nazwiskiem prawdziwej osoby.

Lubię taką analogię – to jest trochę tak, że lubimy oglądać sportowców, na przykład biegaczy biegnących w maratonie. Nie chcemy oglądać, jak ci biegacze ścigają się z robotem, który wiemy, że biega dwa razy szybciej. Będzie nudne – robot wygra, co w tym ciekawego? A my jesteśmy ciekawi ludzkich losów tych biegaczy. Trochę jest tak z autorami – ludzie chętnie czytają tych samych autorów, czytają wywiady z autorami, jakoś się do nich przywiązują i chcą, żeby to byli żywi ludzie, którzy opowiadają im historię.

Na pewno jest jakaś grupa czytelników, którzy mają na to, kolokwialnie mówiąc, wywalone – mogliby czytać rzeczy wygenerowane przez AI, byle były ciekawe. Ale jest też grupa ludzi, którzy czują się oszukani, jeżeli okazuje się, że to było sztuczne, że to było oszustwo.

JK: A co z rynkiem wydawniczym?

TB: Rynek wydawniczy, szczególnie w Polsce, moim zdaniem nie ma takiego problemu, że brakuje mu autorów, więc AI rozwiąże ten problem produkując treści. To jest rynek, na którym jest zdecydowana nadpodaż. Wydaje mi się, że wydawnictwa się z tego nie cieszą – może by się ucieszyły z AI-a, który by im to weryfikował, automatycznie te wszystkie teksty, które dostają.

Wydaje mi się, że taki autor hobbistyczny jak ja nie jest zagrożony przez autorów piszących z AI, bo i tak jest trudno z tego hobbistycznego świata przejść dalej. Bardzo dużo w tym literackim świecie opiera się na takim literackim networkingu – małe wydawnictwa bardzo często publikują autorów, których po prostu znają. Widzieli się, przybili piątkę, wiedzą, kto to jest.

Z punktu widzenia kogoś, kto chciałby zalewać rynek tą literaturą generowaną – ja się trochę dziwię, że komuś się chce. Książkę jest strasznie trudno sprzedać, naprawdę. Całe mnóstwo rzeczy jest łatwiej sprzedać. Rynek literacki jest takim klasycznym przykładem tak zwanego Extremistanu, w którym ta górka najlepiej sprzedających się pisarzy zgarnia 90% rynku. Dojść do tej pozycji samym AI-em jest bardzo trudno.

Etyczne korzystanie – wytyczne dla autorów

JK: Jak według Ciebie powinien wyglądać idealny świat autora książek, opowiadań, wierszy, literatury? Wspomniałeś o oznaczaniu współautorstwa. Czy coś jeszcze byś dodał – takie wytyczne dla autorów literatury?

TB: Przede wszystkim to, żeby to było uczciwie, w pełni oznaczone, żeby czytelnik wiedział, z czym ma do czynienia. Dlatego trochę też ten nasz konkurs mi się spodobał – odebrałem go jako próbę pokazania, jak można to robić etycznie. Spodobało mi się to, że zachęcaliście do przesyłania dokumentacji. Wydaje mi się, że nie byłoby źle, jakby to było wymogiem.

JK: Dodam, że mamy wiele wniosków po tym pierwszym wydarzeniu – zdecydowanie to też musimy poprawić. W kontekście etyki mam taki pomysł, żeby na kolejne edycje troszeczkę mocniej premiować wykorzystanie lokalnych modeli, takich jak chociażby polski Bielik, kosztem big techów. To jest coś, co trzeba wspierać – takie polskie inicjatywy.

TB: Tak, jeżeli chcemy to robić rzeczywiście etycznie, to przynajmniej warto się zastanowić, na ile właśnie te modele są tworzone etycznie, które mają mniej lub więcej tych grzeszków piracenia gotowych rzeczy.

Moje podejście do tego jest takie, że pierwsze wyroki dopiero zapadają i są trochę niejednolite – były na korzyść big techów, ale z taką sugestią, że gdyby to było lepiej udokumentowane, to może byłyby na korzyść autorów. Obserwuję to i wydaje mi się, że warto to obserwować, żeby po prostu być świadomym, jak to jest zrobione.

Przyszłość literatury

JK: Jak wyobrażasz sobie przyszłość literatury? Czy za 10–15 lat w ogóle będą ludzcy autorzy?

TB: Myślę, że będą ludzie, którzy będą tworzyli literaturę, i to będą rzeczywiście ludzie piszący tę literaturę. Jest cała masa ludzi, którzy po prostu lubią pisać, którzy nawet nie potrzebują dużego grona czytelników, nie potrzebują dużej kasy, robią to hobbistycznie. Dzisiaj są tysiące ludzi w Polsce, którzy robią to w zasadzie za darmo – dla frajdy, dla znajomych, albo publikują coś, co osiągnie 200 wyświetleń. Wydaje mi się, że to pisanie hobbistyczne będzie sobie istniało.

Jak AI wpłynie na pisanie zawodowe – ciężko mi powiedzieć. Wydaje mi się, że to, co już się dzieje, czyli wzrost znaczenia self-publishingu – czy to Amazona, czy inicjatywy Empiku, który bardzo mocno promuje swój dział publishingowy – w połączeniu z modelami, które mogą gdzieś tam pomóc osobom poprawiać pewne rzeczy, żeby te teksty były lepsze, i w ten sposób je umieszczać… To jest jakaś zmiana na rynku.

Potrafię sobie wyobrazić przyszłość, w której rolę redaktora w prozie gatunkowej, typowo rozrywkowej, jest w stanie wcielić się AI. I może być nawet równie dobry jak niektórzy bardzo podstawowi redaktorzy w jakichś hobbistycznych wydawnictwach. No i jakby – po co komu w takiej sytuacji wydawnictwo, jeżeli te małe wydawnictwa dzisiaj w dużej mierze polegają na tym, że autor ma już swoje grono, a platforma otwiera się bezpośrednio na autorów?

A jeszcze taka zupełnie inna rzecz – spodziewałbym się, że jeżeli te modele będą rzeczywiście umiały sprawnie pisać całe rozdziały, później powieści – bo dzisiaj to jest jednak jeszcze za wcześnie – to nic nie stoi na przeszkodzie, żeby czytelnik tak naprawdę nie szedł do biblioteki czy księgarni, tylko wchodził w taką aplikację i powiedział: „Wygeneruj mi «Wichry zimy», które będą miały taki i taki kierunek.” Albo: „Chciałbym przeczytać crossover Harry’ego Pottera z Panem Kleksem.” I to będzie jednorazowe dzieło stworzone tylko dla tego człowieka. Przeczyta, powie „kurde, wygenerowałem sobie fajną rzecz, też sobie przeczytaj” – i przeczyta to pięć osób. I to będzie okej, bo ten AI będzie pluł milionami historii cały czas.

Porady dla początkujących

JK: Porady dla osób, które chciałyby zacząć – dla sceptyków, dla tych, którzy nigdy nie korzystali ze sztucznej inteligencji ponad darmowego ChatGPT?

TB: Niestety nie mam takiej rady, która by jakoś bardzo zachęcała. Zachęcałbym, żeby dużo czytać, żeby dużo pisać samemu i pracować nad swoim stylem. Nie na siłę, nie na siłę ze sztuczną inteligencją.

Szczególnie dzisiaj – ten AI on jednak będzie tak mocno uśredniał to, co robimy. Nawet jak piszę w Google Docs i on podpowiada takie zmiany pojedynczych wyrazów – on ma jakąś swoją manierę, którą próbuje mi czasami narzucić. Ja mam swoją i chcę, żeby ona została.

Jeżeli nie masz jeszcze wyrobionego swojego stylu, swojej maniery, swoich przemyśleń – to jest takie niebezpieczeństwo, że jeżeli będziesz za mocno polegał na wszelkich dodatkowych narzędziach, to one nauczą cię pisać tak jak wszyscy inni, którzy też będą tworzyli z tymi narzędziami. Trudno będzie zrobić coś oryginalnego.

JK: Czyli chyba tak jak ze wszystkim – musisz mieć dobrego skilla, fach w ręku, i sztuczna inteligencja jest wtedy dla Ciebie wsparciem, rozszerzeniem. Ale jeżeli nie masz tego fachu, to ona uśrednia – niektórych pociągnie trochę w górę, a niektórych przytrzyma przy tej średniej i nie pozwoli im pójść dalej.

TB: Tak, dokładnie.

Big techy i kradzież dzieł

JK: Poruszyłeś temat kradzieży – że big techy, właściciele dużych modeli językowych, no nazwijmy to wprost, skradli dzieła autorów. Mamy pierwsze wyroki w Stanach, które niestety są na korzyść big techów. Faktem jest, że firmy, które raczej nie mają problemu z brakiem gotówki, skradły dzieła, żeby trenować swoje modele. Czy powinniśmy się obrazić na tę sytuację i na technologię, i ją na stosie spalić? Czy mleko się rozlało i trzeba kibicować autorom, którzy walczą o swoje?

TB: Ja na pewno kibicuję autorom i zachęcam do kibicowania autorom. Jeżeli tam jest możliwość wywierania jakiejś presji na big techy, na rządy – wydaje mi się, że to ma sens. Natomiast no jest trochę tak, że mleko się rozlało, sytuacja jest, jaka jest, te modele już są.

Myślę o tym tak – z perspektywy literackiej raczej nie chcę korzystać z tych modeli do tworzenia. Ale używam jak najbardziej modeli językowych i innych narzędzi zawodowo. Będę ich używał, bo jak nie będę, to zostanę w tyle i po prostu dam się wyprzedzić. Będę czekał na wyroki, a może będą takie, może nie.

Natomiast jak najbardziej uważam, że presja ma sens. Uważam, że to, co zrobiły big techy, jest taką sytuacją żerowania. Chyba wszystkie tak naprawdę – Anthropic troszeczkę gdzieś kreuje się na etyczną firmę, ale też czytałem, że jeden pozew mają na koncie, jeszcze nierozstrzygnięty. Chyba można powiedzieć, że wszyscy mają coś za uszami. Chyba nie ma takiego modelu, o którym moglibyśmy powiedzieć, że jest w pełni etycznie stworzony.

Czy AI-owe dzieła mają duszę?

JK: Były takie komentarze, że tworzenie z wykorzystaniem sztucznej inteligencji to są dzieła pozbawione duszy. Uważasz, że to, co stworzyłeś na konkurs, jest pozbawione duszy?

TB: Najpierw muszę się zastanowić, jak się ustosunkować do tej „duszy” – co to jest, ten ludzki rys, ta głębia? Miałem takie wątpliwości, czy jestem autorem i czy powinienem się pod tym podpisać tak jak wszędzie, czy może jakoś inaczej. I nie odważyłbym się próbować tego nigdzie publikować, gdyby nie to, że każde słowo, które wygenerowało AI, każdy fragment, który przekopiowałem z modelu językowego, wraz z metodą, z jaką to zrobiłem – to jest częścią tego tekstu. Tekst musi być publikowany razem z tym opisem.

A co do duszy – powiem lakonicznie: jeżeli w tym był człowiek, to w tym jest człowiek. A jeżeli w tym nie było człowieka, to w tym nie było człowieka.

Feedback do konkursu

JK: Masz jakieś uwagi do konkursu? Myślimy powoli nad kolejną edycją.

TB: Wydaje mi się, że fajnie byłoby, gdyby dokumentacja była obowiązkowa – ze względów, o których tutaj mówiliśmy parę razy, żeby czytelnik mógł sobie zobaczyć, ile tam było tego człowieka.

Druga rzecz – nie jestem przekonany do tej części z formą plebiscytu, z głosowaniem publiczności. Wydaje mi się, że to jest taki wynik, który łatwo zmanipulować. W podobnych konkursach zdarza się, że ktoś ma po prostu dużą społeczność, poprosi ją o wsparcie, i wygrywa ktoś z dużą społecznością, niekoniecznie z najlepszym tekstem.

JK: Ciekawe, o tym nie myśleliśmy. O dokumentacji – zdecydowanie musimy ją ujednolicić, rozbudować, przede wszystkim ujednolicić wymagania. Co kto i jak ma dostarczyć – konwersacje, całe prompty. Na pewno w tym kierunku pójdziemy.

Polecajka na koniec

JK: Ostatnie pytanie – tradycyjnie – co poleciłbyś do poczytania?

TB: Czytałem parę fajnych rzeczy ostatnio, ale polecę taką w miarę świeżą lekturę, która wiąże się tematycznie – „Nexus” Yuvala Noaha Harariego.

Zagrożenia na poziomie ogólnym, które wydaje mi się, że też dotykają wielu sceptyków i wielu ludzi gdzieś tam podskórnie – zagrożenia związane z takim przejęciem narracji. Jak opowiadamy sobie wszyscy o świecie, w którym żyjemy – to jest coś, na co pozornie nie mamy wpływu. Ale jeżeli tak powoli coraz więcej oddajemy tego wpływu AI-owi, pozwalamy mu podrzucać pomysły, a nawet czasami konstruować zdania, akapity – to czy to nie będzie miało gdzieś wpływu na to, jak sobie myślimy, jak sobie opowiadamy świat?

I mechanizmy, gdzie Harari wybiega trochę w przyszłość – jak w państwach totalitarnych jakaś osoba rządząca może zacząć polegać w jakichś sprawach na sztucznej inteligencji bardziej niż na swoich doradcach. I nagle jesteś w sytuacji, w której krajem steruje de facto sztuczna inteligencja.

JK: To się dzieje już troszeczkę – chociażby ta afera z Grokiem na Twitterze, kiedy kolokwialnie mówiąc odpiął wrotki, a wicemarszałek ucieszył się, że Grok „zapisał się do jego partii” – nie rozumiejąc w ogóle, z czym ma do czynienia, co to jest duży model językowy, dlaczego się tak zachował, co to jest prompt systemowy.

TB: Tak, i też Harari opisywał sytuację, która już się wydarzyła – chyba w Birmie – gdzie algorytm Facebooka, który sam decyduje, jakie treści nam pokaże, a jego jedynym zadaniem jest, żebyśmy spędzali więcej czasu na stronie, doprowadził gdzieś do ogromnej agresji między ludźmi. Treści podburzające, na tle rasistowskim czy religijnym, tak mocno się rozeszły, że doszło do masakry. Meta też zaczęła potem wprowadzać poprawki do algorytmu – widzieli to zagrożenie.

JK: Polecamy „Nexus” Harariego. Tomku, dziękuję Ci bardzo za tę rozmowę – bardzo ciekawy wkład autora w dyskusję o rozwoju literatury i sztucznej inteligencji w całej branży kreatywnej. Zapraszam Was do komentowania, do zadawania pytań i do śledzenia naszej inicjatywy – Konkursu Literackiego AI. Wyniki, analizy, wszystko znajdziecie w opisie.

TB: Dzięki wielkie. Dziękuję.