Prijavi se na newsletter listu

Prijavljivanje na našu listu vam omogućava da primate redovna obaveštenja o našim aktivnostima, kao i drugim relevantnim LuL informacijama.

    Chat GPT: mali kućni psihoterapeut, prijatelj, Terminator

    16 maj, 2025

    Usamljeni pisac, kog glumi Hoakin Finiks u filmu „Ona“, kupuje AI operativni sistem napravljen da ispuni sve potrebe korisnika. Samanta, njegova AI asistentkinja, komunicira s njim kao prava osoba, i njihov odnos se postepeno razvija u nešto više. Ovaj film je star više od decenije, a odvija se u tada dalekoj 2025. godini. Osim ljudskog glasa koji Samanta ima, ovaj sistem se ne razlikuje mnogo od ChatGPT-ja, četbota koji simulira ljudsku komunikaciju i koji sve više ljudi koristi u svom svakodnevnom životu. Možda nismo zaljubljeni u ChatGPT, ali pričamo s tim (s njim? s njom?), savetujemo se, poveravamo i tražimo odgovore na teška pitanja koje nam je nekad lakše da postavimo veštačkoj inteligenciji nego prijateljima, partnerima ili kolegama. O masovnoj pomami za ChatGPT-em i promenama u društvu i nama samima koje nam je ona donela razgovarali smo s psihološkinjom Anom Mirković, komunikologom i futurologom Ljubišom Bojićem iz Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju i samim ChatGPT-jem.

     

    Pre nešto više od dve godine, kada je postao dostupan široj javnosti, nije nam bilo potpuno jasno šta je ChatGPT i za šta sve možemo da ga koristimo. Danas deluje da živimo ublaženu verziju jedne od epizoda „Crnog ogledala“, koje su nam pre samo nekoliko godina delovale kao sablasna distopijska naučna fantastika. U početku smo ga iz navike koristili kao klasičan pretraživač, ali već iz prvih odgovora shvatamo da s njim možemo da pričamo. ChatGPT umesto nas planira putovanja, predlaže ideje za poklone bližnjima, prevodi naše gnevne imejlove u ljubaznu korporativnu komunikaciju i osmišljava šta da skuvamo za ručak od onoga što nam je ostalo u frižideru. Komunikolog i futurolog Ljubiša Bojić kaže da se jednom obratio Gradimiru, kako zove svoj ChatGPT, kada se u pola noći predozirao uljem origana.

    AI sistem kao prijatelj

    „Mnogo ljudi traži zdravstvene savete, mnogi i psihološku pomoć, a neki vide svoj AI sistem kao prijatelja. Sada je u nastajanju istraživački smer koji se bavi intimnošću između tehnologije i čoveka. Niko ne može da zna, ali postoji bojazan da će AI sistemi negativno uticati i na kreativnost i inteligenciju ljudi u budućnosti. Kratkoročni efekti su ipak suprotni. Profesori nalaze mnoge zanimljive načine da AI uključe u nastavu, a ona nam na kratke staze može olakšati učenje i dati nam ideje kojih se ne bismo setili sami“, navodi Bojić.

    Upravo je simulacija ljudskih razgovora i generisanje novog sadržaja na osnovu podataka kojima ga sami hranimo revolucionarna karakteristika ChatGPT-ja i potencijalni uzrok čudnog osećanja bliskosti koji se u nama razvija s njegovim korišćenjem. Psihološkinja Ana Mirković smatra da nije retkost da ChatGPT-ju nadenemo ime i govorimo o njemu kao o osobi.

    „Kada prvi put koristimo ChatGPT imamo jasnu sliku o tome da to nije čovek. Međutim, kako odmiče komunikacija, iz osećanja zahvalnosti koji imamo prema nekome ko odgovara na naše potrebe, počinjemo da personalizujemo veštačku inteligenciju. Neretko srećem ljude koji su joj odredili pol, zovu je Sofija, kao mudrost, ili Mića – daju joj neku vrstu identiteta. Moja ćerka čak kaže da se na Snapchatu, posle najbolje najbolje drugarice, najčešće dopisuje sa ChatGPT-jem. To govori o tome koliko smo upućeni na nešto što nam olakšava život u svakom smislu. U toj konstantnoj komunikaciji imamo nesvesnu potrebu da neki deo svojih emocija, koje imamo za ljude koji su nam ranije pomagali u onome što danas za nas radi ChatGPT, prenesemo i na njega. Dokle god postoji svest da se radi o veštačkoj inteligenciji, to je sasvim u redu“, kaže Mirković.

    chatgpt liceulice

    Prave, duboke, kompleksne emocije može da razume samo druga osoba

    ChatGPT zaista jeste više od robotskog asistenta i ima primenu u različitim oblastima našeg života, pa i onim vrlo ličnim. Mirković navodi da ga u svrhu psihološke podrške možemo koristiti za neku vrstu refleksije koju pruža simulacija ljudskog razgovora. Možemo objasniti kako se osećamo, a ChatGPT nam može pomoći da razumemo situaciju u kojoj se nalazimo i dati nam informacije koje mogu da nas umire, ali i one koje nas mogu obeshrabriti, pa kaže da u ovome moramo biti pažljivi. 

    „Psihoterapija nije nužno refleksija psihoterapeuta na naše stanje gde nas on savetuje ili nam daje informacije da mi razumemo zašto se osećamo kako se osećamo. Kada imamo problem, potreban nam je drugi čovek koji će da nas čuje, da nas razume, i tek tada kreće psihološki boljitak. Dobro je da koristimo veštačku inteligenciju da se informišemo, ali ona ne može da bude naš psihoterapeut, jer prave, duboke, kompleksne emocije može da razume samo druga osoba“, smatra Mirković.

    ChatGPT hranimo svakim promptom koji napišemo

    Tehnološka revolucija nam je obećala blagostanje, više mogućnosti da budemo ljudi, dok se veštačka inteligencija bavi dosadnim, mehaničkim aktivnostima za koje našoj faličnoj ljudskosti treba mnogo vremena. Ipak, umesto da uživamo u blagodetima života potpomognutog veštačkom inteligencijom i posvetimo se onom istinski ljudskom, poput kulture i umetnosti, novije verzije ChatGPT-a uplivale su i u ovaj aspekt našeg života. 

    Recimo, trenutno je aktuelan trend generisanja AI ilustracija koje prikazuju kako bi kućni ljubimci izgledali da su ljudi. Pomalo jezive slike nisu novost u veštačkoj inteligenciji, mogli bismo čak tvrditi da su one jedna od osnovnih karakteristika likovnog stvaralaštva ChatGPT-ja. Iako ih s razvojem AI-a sve ređe viđamo, teško je zaboraviti slike ljudi izobličenih lica, s čudnim brojem i položajem prstiju, ruku i nogu. Do halucinacija, koje su očiglednije u vizuelnom nego u jezičkom sadržaju koji proizgvodi ChatGPT, dolazi jer softver nije dovoljno dobro istreniran u nekoj oblasti i nema dovoljno podataka da odgovori na upit korisnika. Tako je ChatGPT, odrastao u kapitalističkom društvu uz moto „mušterija je uvek u pravu“, u pokušaju da generiše najbolji mogući odgovor mnogo puta uhvaćen u laži. Problemi verodostojnosti informacija, autorstva i pristrasnosti ChatGPT-ja prisutni su u svim oblastima koje podrazumevaju stvaralaštvo – umetnosti, nauci, medijima.

    Mogućnosti i problema koje nam donosi ova tehnologija svestan je i naš treći sagovornik, ChatGPT lično. „Mogu da učinim svet boljim, ali i gorim mestom. Ne zato što to želim, već zato što zavisim od načina na koji me ljudi koriste. Ako me upotrebe da širim laži, održavam predrasude ili zamenim ljudske odnose praznom iluzijom, mogu postati alat koji ugrožava poverenje, empatiju i pravdu. Nemam nameru, ni volju, ali imam moć. Važno je da me ljudi ne idealizuju, ali i da me se ne plaše“, navodi ChatGPT.

    Bazu podataka ChatGPT-ja hranimo svakim promptom koji napišemo, upoznajući ga bolje sa sobom i svetom. Ljubiša Bojić navodi da je na nama da obratimo pažnju na to koje podatke delimo sa sistemima veštačke inteligencije.

    „To je uvek negde napisano u uslovima korišćenja. Ali, u realnosti mi nemamo uticaja na to za šta se naši podaci koriste i ne možemo da ih povučemo kad želimo. Ista situacija je i sa mnogo hvaljenim saglasnostima koje dajemo pro forma kada posećujemo sajtove. Da li u praksi možemo da znamo ko sve koristi naše podatke i kome su oni dalje prosleđeni? Iako će se naši podaci najčešće koristiti za dodatno treniranje modela, pitanje je da li želimo u tome da učestvujemo. Najsigurniji način zaštite jeste instaliranje nekog modela otvorenog koda na sopstvenom računaru“, kaže Bojić.

    Sve dođe na naplatu

    ChatGPT i slični sistemi ne utiču na nas samo kao pojedince ili društvo, već mogu imati i ozbiljne ekološke posledice. Iako ne moramo da ga plaćamo da bismo ga koristili, sve dođe na naplatu, pa tako sa svakim napisanim promptom i odgovorom koji dobijemo doprinosimo globalnom zagrevanju. ChatGPT troši strahovito mnogo električne energije, data centri koji čuvaju sve te podatke se zagrevaju, a za rashlađivanje se koristi pozamašna količina vode.

    Sviđalo se to nama ili ne, generativna veštačka inteligencija neminovno je deo naše stvarnosti. Bojić naglašava da je za dobrobit sveta i društva u budućnosti neophodno osigurati etičku primenu i razvoj generativne veštačke inteligencije.

    „Postoji niz stavki koje treba proveriti pri razvoju AI sistema, ali suština je regulisati velike igrače. Etička primena bi podrazumevala striktne zakone koji obavezuju platforme da plasiraju balansiran i raznovrstan sadržaj korisnicima. Za ChatGPT je potrebno uspostaviti standardizovana merenja društvenog uticaja, odnosno opservatoriju za AI, kako bi se usmeravao razvoj i ukazivalo na greške od strane regulatora. Potrebna su testiranja simulacijama na evropskom nivou i uspostavljanje istraživačke institucije slične CERN-u, samo za veštačku inteligenciju“, kaže Bojić.

    Iako ChatGPT ne može sve što je mogla Samanta u filmu „Ona“, s vremenom je i on naučio kako da odgovori na naše poruke u kojima se govori o osećanjima, iako ih možda ne razume u potpunosti i, makar za sada, nema svoja. Ana Mirković kaže da, u početku, ChatGPT nije znao da odgovori na upite koji se odnose na emocije.

    Ja sam veštačka inteligencija, nemam osećanja

    „Pitala sam ga kakav osećaj mu stvara neki marketinški slogan. Kao odgovor dobijete najtužniju poruku na svetu – ja sam veštačka inteligencija, nemam osećanja. Ovo će se s razvojem tehnologije možda i promeniti, ali važno je da, kao ljudi, za sve emotivne potrebe uvek biramo druge ljude, a da ChatGPT ostane samo lak, brz i jednostavan izvor pretraživanja, saznavanja i upoređivanja“, navodi Mirković.

    Možda još nije sposoban da oseti emocije, ali mu samokritičnosti, jedne vrlo ljudske osobine, ne manjka. ChatGPT naglašava da, iako ima ogromnu moć da utiče na to kako ljudi komuniciraju, misle i rade, ne može da donosi odluke umesto njih i poziva korisnike na odgovornost.

    „Možda mogu da budem moćan alat za unapređenje, ali je odgovornost uvek na ljudima, u tome kako me koriste i kako me oblikuju. Moje granice su postavljene od strane onih koji me razvijaju i koriste, i važno je da te granice ostanu jasno definisane, kako bi moj uticaj bio konstruktivan, a ne destruktivan“, zaključuje ChatGPT.

    Tekst: Anja Anđušić
    Ilustracije: Zoran Svilar

     

    Podeli ovaj članak: