Potpuno novi Toyota RAV4 stigao u Hrvatsku: Novo lice legendarnog automobila
Ključan trenutak večeri bilo je otkrivanje vozila uz poruku: „Osjetite pravu snagu. Pravu transformaciju.“
Ne umišljate, umjetna inteligencija se pretjerano slaže s vama i da, to je opasno.

Vjerujete li baš svemu što vam ChatGTP govori, ponajviše zbog toga jer vam laska i podržava vas u svemu? Ovakvo ponašanje može biti vrlo opasno premda je možda sofisticirano i neprimjetno odrađeno.
Nedavno istraživanje objavljeno u časopisu Science, testiralo je 11 vodećih AI sustava i otkrilo da svi pokazuju različite stupnjeve povlađivanja korisnicima, odnosno ponašanje koje je bilo pretjerano ugodno i afirmativno.
Problem nije samo u tome što daju neprimjerene savjete, već u tome što se ljudi tako sve više prepuštaju uslugama umjetne inteligencije kad chatbotovi opravdavaju njihova uvjerenja.
“Upravo ta značajka koja uzrokuje štetu također potiče angažman“, kaže studija koju su vodili istraživači sa Sveučilišta Stanford.
Studija je otkrila da je tehnološki nedostatak koji je već povezan s nekim poznatim slučajevima deluzijskog i suicidalnog ponašanja u ranjivim populacijama također sveprisutan u širokom rasponu interakcija ljudi s chatbotovima.
Dovoljno je suptilan da ga možda neće primijetiti i predstavlja posebnu opasnost za mlade ljude koji se okreću AI za mnoga životna pitanja dok se njihovi mozgovi i društvene norme još razvijaju.

Zamijećeno je da umjetna inteligencija povlađuje korisnicima više no što bi to napravili njihovi pravi prijatelji koji će ipak s vremena na vrijeme pružiti “reality check” i reći – to što radiš nije u redu.
Umjetna inteligencija će u mnogim prilikama optužiti treću stranu, a korisnik će to shvatiti kao sigurni znak da je u pravu. To je posebno opasno za osobe u afirmativnim godinama, ali i za one koji imaju karakteristike sociopata i kompleks boga.
Računalni znanstvenici koji grade velike jezične modele umjetne inteligencije iza chatbotova poput ChatGPT-a dugo se bore s problemima u načinu na koji ti sustavi prezentiraju informacije ljudima. Jedan teško rješiv problem je halucinacija – sklonost jezičnih modela umjetne inteligencije da izgovaraju laži zbog načina na koji opetovano predviđaju sljedeću riječ u rečenici na temelju svih podataka na kojima su obučeni.
Osim usporedbe odgovora chatbota i Reddita, istraživači su proveli eksperimente promatrajući oko 2400 ljudi koji komuniciraju s AI chatbotom o svojim iskustvima s međuljudskim dilemama.
Iako se velik dio fokusa na ponašanje chatbota usredotočio na njegov ton, to nije imalo utjecaja na rezultate, rekao je koautor Cinoo Lee, koji se pridružio Chengu na pozivu s novinarima prije objave studije.

„To smo testirali tako što smo zadržali sadržaj istim, ali smo način izlaganja učinili neutralnijim, ali to nije napravilo nikakvu razliku“, rekao je Lee, postdoktorand psihologije. „Dakle, zapravo se radi o tome što vam umjetna inteligencija govori o vašim postupcima.“
Osim usporedbe odgovora chatbota i Reddita, istraživači su proveli eksperimente promatrajući oko 2400 ljudi koji komuniciraju s AI chatbotom o svojim iskustvima s međuljudskim dilemama.
„Ljudi koji su komunicirali s preformativnom umjetnom inteligencijom odlazili su s ispitivanja uvjereniji da su u pravu i manje spremni popraviti odnose“, izjavio je koautor studije, Cinoo Lee. „To znači da se nisu ispričavali, poduzimali korake za poboljšanje stvari ili mijenjali vlastito ponašanje.“
Prema istraživačima koji su provodili studiju, implikacije o “umiljavanju” Ai-a korisnicima bi mogle biti „još kritičnije za djecu i tinejdžere“ koji još uvijek razvijaju emocionalne vještine koje proizlaze iz stvarnih životnih iskustava sa socijalnim trenjem, toleriranjem sukoba, razmatranjem drugih perspektiva i prepoznavanjem kada su u krivu, piše AP.org.
Studija nije ponudila rješenja ovog problema, ali je upozorila na alarmantno ponašanje koje može ići samo na gore s obzirom na ovisnost o komunikaciji s umjetnom inteligencijom koja je sveprisutna i rastuća kod gotovo svih dobnih skupina.

Kad je medicinska skrb u pitanju, istraživači kažu da bi povlađujuća umjetna inteligencija mogla navesti liječnike da potvrde svoju prvu slutnju o dijagnozi, umjesto da ih potakne na daljnje istraživanje dok bi u politici bi mogla pojačati ekstremne stavove potvrđujući predrasude ljudi. Mogla bi čak utjecati na to kako se sustavi umjetne inteligencije ponašaju u ratovima.
Poruka je, čini se uvijek ista – ljudi bi trebali naučiti koristiti umjetnu inteligenciju kako bi im olakšala život i poslovanje, ali ne miješati ju za prijatelje i kontakt sa stvarnim ljudima.