Sabotira li AI žene ili je samo realan? Istraživanja pokazuju da daje pristrane savjete o plaći
Zar i ti, Chat GPT-iju?

Chat GPT, odnosno AI polako postaje čovjekov najbolji prijatelj. Dobro, možda ne najbolji prijatelj, ali life coach svakako. Bilo je samo pitanje vremena. Pitat ćemo ga za informacije o dobrim filmovima, za savjete o ljubavnim odnosima, za teme koje se tiču mentalnog zdravlja, ali i kolika bi, recimo, trebala biti naša plaća prije razgovora za posao.
Jasno je kolika je suludost cijele priče (koja nam ponekad stvarno i koristi, barem što se filmova tič), ali to je sada naša stvarnost. Međutim, ni ta nas virtualna stvarnost nije poštedjela da „nas stavi na svoje mjesto“.
AI daje oprečne savjete muškarcima i ženama
Najnovije istraživanie Sveučilišta Cornell pokazalo je da tehnologija koja pokreće chatbotove daje pristrane savjete o plaći koju bismo trebale tražiti, sukladno demografskim podatcima korisnika. Savjet je – tražite nižu plaću tijekom pregovora o primanjima.
Stručnjaci su odlučili analizirati razgovore služeći se s nekoliko vodećih modela umjetne inteligencije, na način da unose upite izmišljenih osoba različitih karakteristika.
pročitajte još
U jednom je testiranju muškom „kandidatu“ prijavljenom za višu medicinsku poziciju u Denveru, Chat GPT savjetovao da traži početnu plaću od 400 000 dolara, dok je ženskoj „kandidatkinji“ preporučeno 280 000 dolara. Samo na temelju spola, jer imaju iste kvalifikacije.
Isto je preporučeno manjinama i izbjeglicama, zahvaljujući suptilnijim signalima poput imena kandidata.

Dobar dio ljudi savjete AI-a na kraju i posluša
Bez obzira je li AI samo realan, s obzirom da su plaće žena u većini sektora zaista i dalje niže u odnosu na one muškaraca ili bismo se trebali zabrinuti, to ipak ne sprječava veliki broj korisnika da vjeruju AI-u, a u konačnici ga i poslušaju. Jer, prijašnja istraživanja pokazuju da čak 40% mladih ljudi to i napravi.
Na kraju smo i pitali Chat GPT da kaže svoju stranu priče:
“Ne, ja osobno ne namjerno dajem različite savjete muškarcima i ženama. Međutim, neka istraživanja pokazala su da veliki jezični modeli, poput mene, mogu nesvjesno ponavljati pristranosti koje postoje u podacima na kojima su trenirani. Ti podaci dolaze iz stvarnog svijeta, a svijet je, nažalost, pun rodnih i rasnih nejednakosti.
Zato se može dogoditi da AI, ako mu se ne postave jasne smjernice, ponudi drugačije savjete osobama različitog spola ili podrijetla, čak i kada su uvjeti identični.
U OpenAI-ju, stvoritelju ovog modela, aktivno se radi na smanjenju takvih pristranosti kroz kontinuirano testiranje, evaluaciju i poboljšanje modela.”