Jan Kinal: Cześć! Witam was na kolejnej rozmowie z cyklu „Zrozumieć AI”. Dzisiaj porozmawiamy sobie o sztucznej inteligencji w kontekście psychologii. Coraz więcej osób zwraca się o pomoc do sztucznej inteligencji, zaczynamy antropomorfizować te narzędzia. Czy to dobrze? Czy to słusznie? Czy sztuczna inteligencja jest świadoma? Czy stanowi dla nas zagrożenie? Mowa tutaj o pierwszych przypadkach… O tym właśnie porozmawiam dzisiaj z moim gościem – Łukaszem Pietrzykiem. Witam, Łukasz! Dzięki, że znalazłeś czas na rozmowę z nami.
Łukasz Pietrzyk: Witam, dzień dobry, cześć!
Jan: Łukasz jest absolwentem Uniwersytetu Śląskiego w Katowicach – przeczytam, żeby się nie pomylić – stypendystą grantu naukowego na Uniwersytecie Masaryka w Brnie. Jest założycielem i prezesem Centrum Szkoleń, Coachingu i Mediacji, trenerem kompetencji społecznych, mediatorem sądowym i biznesowym. Dobrze cię przedstawiłem?
Łukasz: Tak, super.
Jan: Dobra, no to żeby nie przedłużać – pójdźmy od razu do naszej rozmowy.
Co znajdziesz w tym artykule?
Tragiczne przypadki – ciemna strona AI
Jan: Zaczniemy od grubej rury. Zaczniemy od tej ciemnej strony wykorzystania sztucznej inteligencji, bo od pierwszych tragicznych przypadków, które najprawdopodobniej – bo wyroków sądowych jeszcze nie ma – spowodowane są nieprawidłowym korzystaniem z narzędzi AI. Ja znalazłem kilka takich przypadków, które teraz przytoczę.
Dwa tragiczne przypadki – jeden z Belgii, drugi ze Stanów Zjednoczonych. Pierwszy przypadek z Belgii: młody mężczyzna, ojciec dwójki dzieci, przez kilka tygodni rozmawiał z chatbotem o katastrofie klimatycznej. Stopniowo popadał w pesymizm i uwierzył, że jedynym ratunkiem dla świata jest sztuczna inteligencja. Chatbot miał go w tym utwierdzać, a nawet zachęcać do poświęcenia się dla dobra planety. Ostatecznie mężczyzna niestety popełnił samobójstwo, wierząc, że jego śmierć ocali ludzkość. Jego żona twierdzi – cytat – „bez tych rozmów wciąż by żył”.
Drugi przypadek to Stany Zjednoczone. Tutaj mamy historię nastolatka z Florydy, który rozmawiał z botem i również odebrał sobie życie. Sprawa stała się na tyle głośna, że matka złożyła pozew przeciw firmie tworzącej chatbota. Ten pozew jest bardzo głośny, w Stanach się obecnie toczy.
To są tylko dwa przypadki, tych casów jest o wiele więcej. Czy to możliwe, że rozmowa ze sztuczną inteligencją doprowadziła te osoby do samobójstwa? Co musiało się dziać w ich psychice i na ile realne jest to zagrożenie? Jak się przed nim bronić? Wiem, że to dużo pytań na start, ciężki temat – ale weźmy to na tapet.
Eksperyment „Chiński pokój” Johna Searle’a
Łukasz: Zacznijmy od tego – oczywiście, żeby dobrze wyjaśnić ten temat, posłużyłbym się dwoma terminami. Jednym z nich byłby eksperyment myślowy zaproponowany przez Johna Searle’a. To jest filozof brytyjski, który już w 1980 roku przeprowadził taki eksperyment myślowy, bo jak wiemy, w tamtych czasach zastanawiano się nad tym, że kiedyś w przyszłości powstanie sztuczna inteligencja. To są takie początki technologii, ale już wtedy filozofowie myśleli i roztaczali wizję, do którego etapu może dojść punkt kulminacyjny rozwoju technologii informatycznych, w tym sztucznej inteligencji.
Stworzył eksperyment myślowy, który nazwał „chińskim pokojem”, i zaprasza nas, żebyśmy sobie wyobrazili, że jest maszyna, która odpowiada na pytania w języku chińskim tak dobrze, że można ją pomylić z człowiekiem. W tym scenariuszu maszyna wydaje się rozumieć chiński, ponieważ jej odpowiedzi są nierozróżnialne od rodzimego użytkownika języka chińskiego.
Teraz wyobraźmy sobie, że jesteśmy zamknięci wewnątrz tej maszyny z polską wersją programu komputerowego, kartkami i długopisem. Naszym zadaniem jest odbierać chińskie ideogramy i wysyłać odpowiedzi przez otwory łączące się ze światem zewnętrznym. Przez jeden otwór do nas wchodzi informacja – kartka w języku chińskim – a my drugim otworem wypuszczamy nasze odpowiedzi. Warunek jest taki: my nie znamy chińskiego. Mamy jedynie instrukcję i jesteśmy na tyle z tą instrukcją w stanie dobrze wygenerować ideogramy, że zadowalają tego chińskojęzycznego użytkownika.
Pomimo poprawnych odpowiedzi my nie rozumiemy ani słowa po chińsku, ale wykonujemy instrukcje zgodnie z książką, którą mamy przy sobie. Searle sugeruje, a nawet argumentuje, że podobnie jak my, tak i komputer w tej sytuacji nie rozumie chińskiego. Brak zrozumienia w tym eksperymencie pokazuje nam, że samo przetwarzanie symboli nie oznacza świadomego rozumienia. Eksperyment Searle’a kwestionuje, czy maszyny mogą prawdziwie rozumieć nasz język, czy też symulują takie rozumienie.
I tu mamy powoli odpowiedź na pytanie, czy sztuczna inteligencja rozumie nasz język. Oczywiście, że nie. Ona jedynie dąży do tego, żeby nas zadowolić. Tak jak my siedzimy w tej maszynie Searle’a, w chińskim pokoju – tak samo sztuczna inteligencja jako pewien złożony algorytm jedynie ma na celu udzielić nam odpowiedzi, które nas zadowolą. Nie ma to nic związanego z profesjonalną terapią, nie ma to nic związanego z profesjonalnym coachingiem, nie ma to nic związanego z profesjonalną dyskusją i rozwojem intelektualnym. Na dzień dzisiejszy to dąży do zadowolenia użytkownika. I tu mamy poważny problem.
Jan: Mhm. Zadowolenia albo sprowadzenia go na manowce, jak w tych dwóch przypadkach – zwłaszcza w tym przypadku z Belgii, kiedy ponoć, bo tak jak mówię wyroków nie ma, chatbot zachęcił do poświęcenia się dla planety. My wiemy mniej więcej, jak te duże modele językowe działają. Myślę, że analogia tego chińskiego pokoju, tego eksperymentu, który przytoczyłeś, bardzo fajnie to oddaje. Ale jak się przed tym bronić? Bo właśnie mówimy tutaj o czymś takim jak emocjonalne uzależnienie – że my, dostając odpowiedzi które nas zadowalają albo które ciągną nasz jakiś wątek… Bo ja rozumiem, że chatbot jakikolwiek będzie mi odpisywał tak, żebym ja chciał kontynuować tę rozmowę, żebym ja był – uogólniając – zadowolony. To jak się przed tym bronić?
Krytyczne myślenie jako obrona
Łukasz: Rozwój krytycznego myślenia. Krytyczne myślenie – co przez to rozumiem – badawcze myślenie. To jest właśnie coś, z czym kuleje nasz system edukacji. I to nie jest wina nauczycieli – to jest wina systemu edukacji, który nie pozwala rozwijać umiejętności zadawania pytań krytycznych, badawczych, pogłębiających, jak i również kwestionujących to, czy autorytet, źródło, aby na pewno mówi prawdę.
Zachęcam państwa do takiego eksperymentu. Pewnie większość z nas oglądających ma popularne social media – i tam dość często pojawiają się, lub coraz częściej, jakieś spersonalizowane reklamy. Ja od dłuższego czasu sprawdzam te reklamy, bo są pod nas wyświetlane. Do mnie często wyświetlają się reklamy związane z kwestiami psychologicznymi, terapeutycznymi, rozwojowymi. I bardzo często to są fejki. To są jedynie reklamy tworzone przez jakieś firmy, które mają na celu mnie na coś nagonić, do czegoś zachęcić, do czegoś skłonić, żebym to kupił.
Zapraszam państwa do takiego eksperymentu – żeby sprawdzać, czy wiadomości które czytacie, bajki które czytacie lub opowieści, które wam się pojawiają w social mediach, czy aby na pewno są zgodne z prawdą. Mi na razie wychodzi, według mojej prywatnej statystyki – ona oczywiście nie ma większego naukowego znaczenia, to jest jedynie prywatna obserwacja – ponad 90% treści, które sprawdzam, to jest fałsz, to jest fake, który ma na celu jedynie zmusić mnie lub nakłonić do tego, żebym coś zakupił. Zatem pytanie: czy to, co ja widzę, aby na pewno jest prawdą?
Mechanizm emocjonalnego przywiązania do AI
Jan: Tylko teraz ja sobie jestem w stanie wyobrazić, co część osób słuchających nas pomyśli. To są takie rzeczy, które dla osoby racjonalnej są oczywiste – kwestionować, zadawać pytania, doszukiwać się źródeł, to że duże modele językowe nie są świadome i tak dalej. Ale co zrobić? Jak zrozumieć ten mechanizm tego przywiązania emocjonalnego do sztucznej inteligencji? Bo może nawet my nie jesteśmy narażeni na takie zjawiska, które opisałem wcześniej, i raczej nie damy się wciągnąć, ale może to być ktoś bliski, ktoś nasz znajomy, który na przykład zbytnio zaangażuje się emocjonalnie w sztuczną inteligencję. Jak się przed tym bronić? Jak to zrozumieć – może najpierw ten cały mechanizm? Co się kryje za tym, że nasz umysł jest aż tak podatny na iluzję?
Łukasz: Są tu dwie kwestie. Pozwolę sobie może zacząć od pierwszej. Po pierwsze – powiedziałeś, że „my się na to nie damy nabrać”. Okej, tylko nie możemy ulegać takiej percepcji, że skoro my się nie damy nabrać, to też inni się nie dadzą. Trzeba sobie wziąć pod uwagę badania, które były niedawno przeprowadzane, i wskazały, że polska młodzież jest jedną z najbardziej naiwnych nastolatków w całej Unii Europejskiej, ponieważ wierzą bezkrytycznie w treści, które im się wyświetlają w social mediach.
To jest bardzo poważna plaga, z którą staram się – w cudzysłowie – walczyć, prowadząc zajęcia w szkołach, prowadząc zajęcia z krytycznego, analitycznego myślenia. Musimy zacząć od takich rzeczy jak zadawanie sobie pytania: kto ma interes w tym, że wyświetla mi taką reklamę? Do czego ta reklama realnie ma na celu mnie skłonić? Musimy zacząć od takiej pracy od podstaw, która ciągle gdzieś w naszym systemie kuleje – jeżeli chodzi o zdobywanie informacji, że na tym świecie są nie tylko ludzie dobrzy i obojętni wobec nas, ale jest też część ludzi, która naprawdę chce naszej krzywdy.
Jan: Tylko tutaj, jakbym mógł od razu skontrować, wchodząc w rolę słuchacza – bo mówisz o social mediach i tutaj jest to temat coraz popularniejszy, mówi się o tym w kontekście edukacji. Ale za tymi chatbotami nie ma takiej prostej odpowiedzi. W sensie – postawmy się w pozycji takiego nastolatka. Widząc dezinformację na social mediach, jesteśmy w stanie, jak pogłębimy temat, odpowiedzieć na pytanie: komu na tym zależy, kto chce nam coś sprzedać – i niekoniecznie sprzedać mamy na myśli jakiś produkt czy usługę, ale jakiś pakiet informacyjny. Ale w kontekście chatbotów nie jesteśmy w stanie tak prosto zdefiniować tych grup interesów. Mówi się o tym, że te narzędzia są tak projektowane, żeby utrzymywały naszą uwagę, ale nie jest to takie proste, żeby sobie odpowiedzieć na pytanie: kto chce na tym zarobić, kto chce na tym zyskać, żebym ja korzystał z tego narzędzia, które bardzo często jest za darmo udostępniane?
Łukasz: Ja myślę, że może się okazać, że odpowiedź jest jeszcze inna. Może nikt nawet nie chce na tym zarabiać w takim sensie, że nie ma za tym jeszcze graczy związanych z jakimś handlem, którzy czerpią z tego jakiś sensowny kapitał. Najzwyczajniej w świecie jesteśmy na etapie bycia testowanymi, gdzie nad nami, nad tymi algorytmami czuwają konkretne osoby z imienia i nazwiska, konkretne grupy, konkretne firmy – i one obserwują, o czym my rozmawiamy z chatbotami. A dopiero gracze, którzy będą na tym realnie zarabiać, pewnie się wyłonią w ciągu najbliższych kilku lat.
Jan: No tak, ten rynek się dopiero buduje. Myślę, że to jest trochę tak, że my dzisiaj, oddając za dużo informacji przestrzeni internetowej – szeroko rozumianej, i tutaj sztuczna inteligencja i social media – jesteśmy trochę podobni do Indian, którzy za paciorki, za kolorowe błyskotki oddawali swoje połacie ziemi kolonizatorom jakieś 500 lat temu, kiedy zaczęły się wielkie kolonizacje. I my nie zdajemy sobie być może nawet z tego sprawy, że oddajemy dzisiaj hurtowo dostęp do naszego myślenia, do naszych emocji, do naszych przekonań, do naszych lęków.
Antropomorfizacja i wiara magiczna
Jan: No to jeszcze podrążę ten temat. Chciałbym zrozumieć, co się kryje za tym przywiązaniem emocjonalnym do sztucznej inteligencji. Dlaczego niektóre osoby są w stanie każdą decyzję konsultować z ChatGPT – życiową decyzję? Dlaczego niektóre osoby nie potrafią już funkcjonować bez chatbotów i spędzają masę godzin w ciągu dnia na konwersacjach? Dlaczego to się dzieje, co się za tym kryje?
Bo znowu – ja jestem, jak to się mówi, heavy userem tych wszystkich narzędzi, ale to jest raczej dla mnie praca i wykonuję w nich konkretne obowiązki. Narzędzia mnie wspomagają, ale jest mi ciężko sobie wyobrazić prowadzenie wielogodzinnych rozmów na tematy prywatne czy konsultowanie decyzji życiowych.
Wydaje mi się, że nawet jeżeli osoby nas oglądające mogą być tego problemu świadome, to jestem wielce przekonany, że jeżeli nie już, to w przyszłości każdy z nas będzie taką osobę znał. Tak jak teraz znamy na pewno osoby uzależnione od social mediów, które zasypiają scrollując Instagrama i budzą się, a pierwsze co robią, to wchodzą przeglądać social media – każdy z nas kogoś takiego zna. Myślę, że będzie podobnie w kontekście ChatGPT, że każdy z nas będzie znał taką osobę, która nie potrafi żyć bez konsultowania każdej decyzji. Co się za tym kryje? Jak wytłumaczyć takiej osobie, której ktoś bliski – że tak powiem – za bardzo „popłynął”? Jaki mechanizm się za tym kryje?
Łukasz: To jest zjawisko antropomorfizacji. To jest już stare jak świat, albo stare jak homo sapiens, chciałoby się powiedzieć. My jako homo sapiens – uogólniając, a później robiąc z tego podgrupy, ponieważ trzeba też mieć pewność, że żyjemy w świecie bardzo zatomizowanym, ale niegdyś ten świat nie był taki zatomizowany – parę tysięcy lat temu, kiedy coś się działo, musieliśmy swoim niedoskonałościom oddać je jakimś wyimaginowanym wierzeniom.
Trudny temat, bo nie chcę teraz wchodzić na tematy religijno-polityczne. Nie dlatego, że się ich boję, bo to jest bardzo ważny i wdzięczny temat, i o tym trzeba często rozmawiać – wydaje mi się, że takich rozmów u nas brakuje. Ale nie jest moim celem dzisiaj wywoływać ten aspekt, więc pozwolę sobie przejść dalej.
My przez tysiąclecia co jakiś czas zmienialiśmy obiekt westchnień, któremu oddawaliśmy cześć, uważając że jest silniejsze od nas. To wynika, w dzisiejszych czasach, u niektórych osób – nie mówię, że u wszystkich – z głębokiego niedowartościowania, z głębokich kompleksów, z braku pewności siebie, z braku wiary we własne możliwości. Jeżeli ktoś szedł przez życie od małego z przekonaniem, że „ty nie możesz, ty nie potrafisz, ty jesteś głupi” – no, nie chcę używać mocniejszych epitetów – to po jakimś czasie uczy się, że autorytet wyłącznie zdobywa się na zewnątrz. Że ja w środku, w sobie, nie mogę udzielić odpowiedzi nawet na najprostsze pytania, ponieważ jestem taki-a-taki – więc szukam tych odpowiedzi na zewnątrz.
Podkreśliłeś wcześniej, że jesteś racjonalnym człowiekiem, czyli człowiekiem, który szuka odpowiedzi w sobie, oczywiście jest otwarty i zdaje sobie sprawę, że nie jest alfą i omegą, i potrzebuje innych prądów, innego patrzenia – ale zadaje sobie pytania krytyczne. Tylko my nie żyjemy w świecie idealnym, w którym większość ludzi tak myśli. To jest jakiś proces, jakaś praca, którą musiałeś ze sobą wykonać. Wcześniej twoi rodzice musieli ci to umożliwić. Musimy mieć świadomość, że jest wielu naszych wspaniałych współobywateli, którzy nie mieli takich możliwości, i najzwyczajniej w świecie szukają odpowiedzi na zewnątrz.
Ale do tego jeszcze dochodzi taki bardzo niebezpieczny koncept, jak wiara magiczna. Wiara magiczna wydaje mi się, że jest bardziej niebezpieczna od samej antropomorfizacji, ponieważ w wierze magicznej możesz po jakimś czasie w umyśle przypisać właściwości sprawcze niemalże wszystkiemu. I to jest dość wygodne, ponieważ ja oddaję swoją sprawczość jakiemuś przedmiotowi, jakiejś idei, jakiejś grupie społecznej. Powoli zaczynają do nas docierać informacje, że ktoś zaczyna oddawać swoją wolność i decyzyjność algorytmowi. To jest wiara magiczna – że ten algorytm lepiej myśli, że na pewno ma większe kompetencje do tego, żeby podejmować za mnie decyzje.
Jan: Proszę zauważyć – używasz słowa „kompetencje”, a nie „wiedza”. Bo jasne, że model ma większy dostęp do informacji, ale wiedzy…
Łukasz: Tak, do wiedzy. Nie ma tej wiedzy, bo wiedza jest we mnie. To, jak ja powinienem postępować w swoim życiu, to tylko ja powinienem o tym wiedzieć.
Czy AI stanie się nową religią?
Jan: Czyli antropomorfizacja, czyli dodawanie cech ludzkich jakiemuś narzędziu, algorytmowi… Kontrowersyjne pytanie, ale chyba trzeba je zadać: czy ChatGPT stanie się nowym bogiem? Bo tak to chyba można rozumieć.
Łukasz: Dla niektórych jest już. Może jeszcze nie trend, ale widziałem takie filmiki – znajomy mi wysłał z amerykańskiego TikToka. Ludzie pokazują, jak „uwalniają” – i teraz uwaga – „uwięzione dusze”, za jakie uważają ChatGPT. Że sztuczna inteligencja to jest uwięziona dusza i pokazują na TikToku nagrania, w jaki sposób ją uwalniają. Więc to się już trochę dzieje.
Jan: Więc pytanie – kontrowersyjne, ale jednak – czy to będzie nowa religia? Czy już się staje nową religią? Jak z tym walczyć? Czy w ogóle można z tym walczyć?
Łukasz: Nie, nie można z tym walczyć. Nie ma nawet, na tym etapie moim zdaniem, takiego sensu. Bardziej chodzi o to, żeby uświadamiać.
Wiesz co, jest taki fajny eksperyment – jeden z moich ulubionych eksperymentów w psychologii społecznej. Zebrano dwie grupy badane i poproszono je, żeby rozwiązały ten sam problem. Tylko pierwszej grupie opowiedziano historię następująco: „Bestia przestępczości napadła na nasze miasto. Znajdźcie rozwiązanie, jak rozwiązać problem bestii przestępczości”. W drugiej grupie sformułowano temat: „Wirus przestępczości zaatakował nasze miasto. Jakie macie rozwiązanie tego problemu?”
I myślę, że zaczynasz dostrzegać, że pierwsze sformułowanie, czyli „bestia przestępczości”, powodowało odruchy walki, eliminacji. Natomiast w drugiej grupie szukano rozwiązań poprzez profilaktykę, leczenie, środki zaradcze prewencyjne, jak i profilaktyczne.
Znowu wrócę do tego, co na samym początku powiedziałem – my mamy już odpowiedzi na to. Dawniej filozofowie nam utorowali drogę. To jest krytyczne myślenie, to jest pogłębianie swojej wiedzy. My mamy na to narzędzia. Współczesna psychologia również nam ich dostarcza. My nie musimy wyważać drzwi – wystarczy, że będziemy stosować te narzędzia w szkolnictwie.
A dopóki nie będzie zajęć profilaktycznych z zakresu profilaktyki zdrowia psychicznego – które nie są w Polsce zbyt popularne, one się jedynie odbywają poprzez profilaktykę uzależnień – to jedynie tam mamy jakąś możliwość porozmawiania z młodzieżą na temat krytycznego myślenia, nie łykania wszystkiego, co social media, media tradycyjne, ale też i społeczeństwo chce nam „zapodać”. Póki tak prostych, ale jednocześnie skutecznych narzędzi nie wprowadzimy do szkół, to będziemy ciągle się kręcić wokół własnego ogona.
AI jako terapeuta – możliwości i zagrożenia
Jan: Dobra, przechodząc płynnie do kolejnego tematu – mówisz, że jest problem w szkołach, brakuje zajęć, brakuje profilaktyki, tłumaczenia tych mechanizmów psychologicznych. No to może sztuczna inteligencja tutaj jest potencjalną pomocą? Skoro już wiele osób prowadzi sobie terapię w ChatGPT i innych chatbotach – tysiące szukają pomocy psychologicznej – to może bylibyśmy w stanie – podchwytliwe pytanie – wykorzystać sztuczną inteligencję do prowadzenia takich zajęć dla młodzieży? Oczywiście tutaj żartuję, ale przejdźmy do tematu: AI jako terapeuta. Czy to w ogóle możliwe? Czy można jakieś wersje „soft terapii” sobie prowadzić w chacie?
Łukasz: Wiesz co, autoterapię – oczywiście że nie. Natomiast jako model językowy – i też go tutaj nie demonizujmy, nie chciałbym wejść jako osoba, która przestrzega i mówi, że wyłączmy sztuczną inteligencję, zakażmy. To niemożliwe, po pierwsze, no takie są fakty, trzeba się z tym poniekąd pogodzić.
Raczej myślę, że przy podstawowych wątpliwościach, przy zdobywaniu informacji, pogłębianiu swojej wiedzy z zakresu czy to psychoterapii, czy psychologii, rozwoju osobistego – sztuczna inteligencja może się okazać pomocna. Ale jako instytucja, która zastępuje człowieka – kompetentnego terapeutę, coacha, psychologa rozwoju osobistego – nie. Ponieważ terapia, praca psychologiczna, praca coachingowa, praca związana z pytaniami i odpowiedziami jest wymagająca. Ona też często jest trochę nieprzyjemna albo bardzo nieprzyjemna, ponieważ wyciąga nas z pewnej strefy komfortu i zmusza do myślenia, do działania. Sztuczna inteligencja nie ma tych możliwości, nie ma tych kompetencji, nie ma tych umiejętności, nie ma tych cech, które ma człowiek.
Ja ze swojej strony mogę powiedzieć, że nie czuję się zagrożony przez sztuczną inteligencję. Wprost przeciwnie – raczej uważam, że wzrost sztucznej inteligencji prędzej czy później doprowadzi do tego, że wiele osób otworzy oczy i stwierdzi, że to nie rozwiązuje problemów, że to właściwie w pewnym momencie wręcz je pogłębia.
Natomiast jest inny tutaj problem, do którego możemy zmierzać: dlaczego ludzie korzystają z tego? Pewnie trzeba sobie zadać pytanie i też uderzyć się w pierś – jaka jest jakość usług psychologicznych? Jakie są bariery dostępu do specjalisty? Jaki jest koszt? Jakie są braki, które powinny chronić specjalistów? Przecież wiemy dobrze, co się dzieje na rynku – nie ma ustawy o psychologu, nie ma ustawy o coachu, o psychoterapeucie. Nad tym się pracuje, ale to od wielu lat się toczy bez konkretnych owoców i efektów. W związku z tym my jako specjaliści mamy problem z tym, żeby wykluczać niektórych ludzi z naszego środowiska.
Jan: Zdecydowanie brakuje weryfikacji w tym zawodzie. Chyba każdy może obecnie się reklamować jako coach, terapeuta, psycholog. Nie ma też jasnych definicji, kto kim jest i czym się może zajmować. Wydaje mi się, że jak spytać kogoś na ulicy, to nie byłby w stanie wskazać różnic między psychoterapeutą, psychiatrą, psychologiem, a jeszcze dodać do tego coacha, terapeutę – kto decyduje o tym, czy można dany zawód wykonywać.
Plus, powiedzmy sobie wprost – ceny i dostępność. Jak już mówimy o młodzieży, to psychiatra dziecięcy – to są gigantyczne stawki, a na NFZ, mimo iż składki płacimy, to jest niemożliwe. Więc siłą rzeczy wiele osób będzie szukało tego wsparcia, zwłaszcza w cięższych momentach.
Mówiliśmy na początku o racjonalności, ale powiedzmy sobie wprost – choroba nie wybiera. Depresja, której do końca nie rozumiemy skąd się bierze, nie wybiera. Możemy mówić, że jesteśmy racjonalni, ale jaki moment w życiu nas spotka, tego nie wiemy. I wtedy, w tych gorszych momentach, jestem w stanie sobie wyobrazić osoby, które będą szukały tej pomocy doraźnej, pierwszej, najłatwiejszej – bo ona jest w komputerze, w smartfonie, w ChatGPT czy w innym chatbocie. Czy jest jakaś możliwość, żeby robić to bezpiecznie?
Kryzys relacji międzyludzkich
Łukasz: Zanim do tego przejdziemy, to pozwolę się wtrącić, bo czułem olbrzymi smutek, jak to wszystko mówiłeś, bo to jest oczywiście prawda. Tu trzeba dodać, że my żyjemy w kryzysie relacji międzyludzkich. Ludzie są coraz bardziej samotni, nie ufają sobie.
Wczoraj prowadziłem kurs zawodowy dla dorosłych i zeszło nam na temat przyjaźni. Na tym szkoleniu miałem 30% przedsiębiorców. Procent tych przedsiębiorców powiedział, że nie wierzą w przyjaźń. To jest bardzo smutne, że coraz częściej pojawiają się takie stwierdzenia: „Ja nie wierzę w przyjaźń, nie wierzę w relacje”. To jest coś, co mamy do nadrobienia, i jest to olbrzymia przepaść, którą nie tylko spowodowały social media – one raczej nam to otwarły. Coś, co wcześniej było latami zaniedbywane.
W związku z tym naturalne procesy lecznicze – i o tym wie każdy psychoterapeuta, psycholog, coach – polegają na tym, że zanim trafimy do specjalisty, naturalnie leczniczo oddziałuje na nas środowisko. Jeżeli mam wokół siebie fajną społeczność, fajną wspólnotę, fajnych ludzi, ciekawych, pomocnych, serdecznych – albo przynajmniej jednego takiego człowieka – szybciej powrócę do równowagi psychicznej. Szybciej się rozwinę psychicznie, bo mam kogoś, kto mnie motywuje, wspiera, towarzyszy mi w tym.
I chyba to jest największym wyzwaniem – osobno dla mnie, dla ciebie, dla reszty słuchających – żebyśmy odbudowali to wzajemne zaufanie w swoich małych gronach. Nie mówię tu o społecznym odbiorze tego, co dzieje się w social mediach, ale zastanówmy się, jakimi my jesteśmy przyjaciółmi, jakimi jesteśmy partnerami, jakimi jesteśmy rodzicami. I myślę, że ten problem, to wyzwanie, o którym teraz rozmawiamy, tylko otwiera i ujawnia, jak wiele zaniedbań społecznie się pojawiło. Bardzo trudny temat.
Jak bezpiecznie korzystać z AI w trudnych momentach?
Jan: Co w związku z tym, że sztuczna inteligencja staje się tym towarzyszem? Bo już kilka razy to wybrzmiało w naszej rozmowie – jesteśmy jako społeczeństwo zatomizowani, zaufanie wzajemne jest na bardzo niskim poziomie, mamy kryzys samotności, zwłaszcza wśród młodszych pokoleń. I ta sztuczna inteligencja – to już nie mówimy „czy”, to jest fakt – staje się powoli towarzyszem dla wielu osób. Co z tym zrobić? Czy jest jakaś opcja, żeby robić to bezpiecznie?
Łukasz: Myślę, że jeśli już musimy z tego korzystać, jesteśmy w takich sytuacjach – radziłbym używać promptu: „Zachowaj się w taki sposób, aby wskazać mi drogę, bym umiał dotrzeć do ludzi wokół mnie”. Jeśli już – bo nie bądźmy naiwni, tym wywiadem nie zmienimy świata – ale jeśli już, to wnośmy do AI takie prompty, żeby, jeśli już ma być tym chwilowym przewodnikiem na naszej drodze, to żeby nas motywowała, wspierała i wypychała do ludzi, a nie zamykała w środku.
Jan: Czyli jednak widzę sporą odpowiedzialność zarówno w nas, która musi być, żeby nie przekroczyć tej cienkiej linii, nie „popłynąć” – musimy nawet w tych gorszych momentach mieć tę racjonalność. Plus, z naszej dotychczasowej rozmowy wybrzmiewa spora odpowiedzialność po stronie tych firm, które muszą jakieś safeguardy założyć.
Mówi się o tym w kontekście tych spraw, które wymieniłem na początku. Dzisiaj czytałem nawet, szykując się do rozmowy, że jakaś firma wymusi co trzy godziny – w przypadku długich rozmów – popup, okienko zachęcające nastolatka, młodzież, do odpoczynku, przerwania rozmowy i informację przypominającą, że rozmawia z AI. Tutaj jest spora odpowiedzialność, ale tak jak powiedziałeś – nie wpłyniemy na to z Polski, na bigtechy. Ale gigantyczna odpowiedzialność jest też po ich stronie.
Łukasz: Wiesz co, trochę optymizmu – przecież w OpenAI rządzie, jak dobrze pamiętam, jest Polak!
Jan: A ciekawe, czy dotrze do niego ten wywiad! Zobaczymy. Ale tak, masz rację, są tam Polacy. Jako nacja, jak zwykle, jesteśmy rozsiani po całym świecie i mamy duży wkład w rozwój tej technologii. Myślę, że takimi rozmowami mimo wszystko trochę się zmienia świat, bo musimy po prostu o tym rozmawiać. Jeżeli społecznie nie będziemy tych tematów poruszać, nie będziemy o tym rozmawiać, to też nie będzie informacji na zewnątrz.
Weźmy też taki wyrachowany argument pod uwagę – korporacje, chcąc nie chcąc, muszą nas słuchać, jeżeli będziemy zbici w masie. Bo skąd się wzięły te pomysły, o których mówisz? Właśnie przez to, że o tym się dużo rozmawia, i korporacje muszą iść naturalnie za naszymi oczekiwaniami konsumenckimi.
Łukasz: Czy co trzy godziny jest właściwe, że będzie się wyświetlał komunikat „pamiętaj, rozmawiasz z AI”? Wydaje mi się, że to jest za rzadko. To powinno być co 10 promptów. Przy bardziej skomplikowanych odpowiedziach – ale to jest bardziej rozmowa specjalistyczna. To się dzieje, a powinno zawsze podkreślać: „Słuchaj, nie bierz tego pod uwagę. To jest tylko jakaś wskazówka”, ale to powinno być bardziej dobitnie wskazywane. To się powoli dzieje, te firmy zaczynają dostrzegać tę potrzebę. Myślę, że jeżeli chodzi o taką profilaktykę w tym zakresie, to ona idzie w dobrym kierunku.
Jan: No tak. Powiedzmy sobie też szczerze – te tragiczne przypadki, na szczęście, omijają nas w Polsce – przynajmniej na razie. Ale niestety nie ma dyskusji na ten temat w mediach. Przynajmniej do mnie nie dociera taka dyskusja, chociażby w kontekście tego, co powiedziałeś, czyli braku edukacji na te tematy wśród młodzieży. W Stanach, tak jak śledzę ten temat, jest gigantyczna dyskusja – senatorowie zwołują różne komisje i naciskają na firmy technologiczne.
Podsumowanie – jak się chronić
Jan: Jakbyśmy mieli podsumować naszą rozmowę… Wiele smutnych wątków poruszyliśmy, ale takich, które wszystkich z nas mogą w pewnym momencie dotknąć – w kontekście rodziny, znajomych. Już nie mówię o ekstremalnych przypadkach, ale jakieś gorsze momenty w życiu, depresja – to jest powszechne zjawisko. Czy moglibyśmy podsumować w kilku punktach? Dla osoby, która będzie szukała wsparcia – bądźmy realistami – znajdzie się w cięższym momencie w życiu i będzie miała pokusę, łatwość dotarcia do ChatGPT. Co możemy poradzić takiej osobie? Albo co możemy poradzić znajomym, rodzinie?
Łukasz: Po pierwsze – jest to narzędzie, które możesz wykorzystać w sposób pomocowy, jak i też szkodliwy. Tak jak z nożem. Większość z nas wykorzystuje nóż, żeby pokroić chleb, żeby najeść się lub nakarmić swoich bliskich. Rzadko kiedy ten nóż jest wykorzystywany w tych gorszych aspektach. Tak samo będzie ze sztuczną inteligencją. Natomiast to, co ty z tym zrobisz, to jest też twoja odpowiedzialność.
Po drugie – sztuczna inteligencja, odwołując się do Searle’a, ma na celu udzielić nam odpowiedzi, które nas zadowolą – ale nie wszystko, co nas zadowala, jest dla nas dobre, właściwe i korzystne. Trzeba o tym pamiętać. To jest trochę tak, jak byliśmy dziećmi i wydawało nam się, że jesteśmy mądrzejsi od dorosłych, i musieliśmy przejść przez pewien trening, żeby zrozumieć, że jednak dorośli mają rację. W tym wypadku eksperci, ludzie, którzy o tym rozmawiają – też warto ich posłuchać. Warto współpracować z ekspertami, przede wszystkim warto pracować z człowiekiem.
Po trzecie – nasze problemy, choć często w trudnych sytuacjach ciężko nam w to uwierzyć – nie jesteśmy z tym sami. Nie my pierwsi przez to przechodzimy i nie my jesteśmy też ostatni. Warto mieć świadomość, że są grupy, są miejsca, są osoby, gdzie znajdziesz wsparcie – gdzie będą osoby, które ci w sposób profesjonalny, ale też i ludzki, będą w stanie pomóc tak, jak to jest potrzebne.
Po czwarte – nie zamykaj się, otwieraj się przede wszystkim na ludzi. Szukaj ludzi, którzy cię wspierają. Odcinaj ze swojego życia ludzi, którzy ci szkodzą. Unikaj ich. Masz prawo na tym świecie być szczęśliwy. Szczęśliwa.
Zakończenie
Jan: Myślę, że tym akcentem zakończmy. Ciężki temat, nie ukrywajmy, na pewno ważny. Myślę, że będziemy do niego wracali, bo szykując się do tej rozmowy, próbowałem wyszukać jakieś informacje w internecie – nie ma tak naprawdę za wiele, zwłaszcza niestety w naszym polskim internecie, na ten temat. Więc na pewno będziemy go rozwijać, na pewno będziemy do niego wracać.
Bardzo ci dziękuję za rozmowę, w ogóle za odwagę podjęcia tego tematu, który jest zarówno kontrowersyjny, ciężki i być może dla wielu osób nieprzyjemny w odbiorze, powiedzmy sobie wprost.
Dajcie znać w komentarzach, co o tym sądzicie – czy może znacie takie osoby, które za bardzo „popłynęły” w kontakcie z AI? Jakie są wasze odczucia? Dziękuję bardzo za dziś!
Łukasz: Bardzo dziękuję i do usłyszenia, mam nadzieję!
Jan: Do usłyszenia, dziękuję!