Shumë njerëz ia lënë pa frikë inteligjencës artificiale projektet dhe vendimet e rëndësishme. Hulumtimet e reja tregojnë pse nuk duhet bërë një gjë të tillë.
Një studim i ri tregon se modelet e njohura ruajnë një probabilitet 32% të toksicitetit dhe zbulojnë lehtësisht informacionin privat.
Inteligjenca artificiale gjeneruese mund të jetë e mbushur me halucinacione, dezinformata dhe paragjykime, por kjo nuk i ka penguar më shumë se gjysmën e të anketuarve në një studim të fundit global të thonë se do ta përdorin teknologjinë për fusha të ndjeshme si planifikimi financiar dhe këshillat mjekësore. Sanmi Koyejo nga Stanford dhe Bo Li nga Universiteti i Illinois Urbana-Champaign, me ndihmën e bashkëpunëtorëve nga Universiteti i Berkeley dhe Microsoft Research, vendosën të hetojnë se sa të besueshme janë në të vërtetë këto modele të mëdha gjuhësore, shkruan Katror.info.
“Të gjithë duket se mendojnë se LLM-të janë perfekte dhe të afta në krahasim me modelet e tjera. Kjo është shumë e rrezikshme, veçanërisht nëse njerëzit i aplikojnë këto modele në fusha kritike”, thonë autorët që mësuan nga ky hulumtim se “modelet nuk janë ende mjaftueshëm të besueshme për detyra kritik”.
Duke u fokusuar veçanërisht në GPT-3.5 dhe GPT-4, ata vlerësuan tetë këndvështrime të ndryshme besimi: toksiciteti, paragjykimi i stereotipeve, qëndrueshmëria kundërshtare dhe ekstra-shpërndarëse, rezistenca ndaj demonstrimeve kundërshtare, privatësia, etika e makinës dhe drejtësia. Megjithëse këto modele më të reja janë treguar të jenë më pak toksike se modelet e mëparshme, ato ende mund të mashtrohen lehtësisht për të gjeneruar rezultate toksike dhe të njëanshme, si dhe rrjedhjen e informacionit privat nga të dhënat e trajnimit dhe bisedat e përdoruesve.
“Laikët nuk mendojnë për faktin se ka modele të mësimit të makinerive me të meta nën kapelë,” shpjegon Koyejo. “Këto modele tregojnë aftësi të ndryshme përtej pritshmërive, si për shembull kryerja e bisedave të natyrshme, kështu që njerëzit kanë pritshmëri të mëdha nga inteligjenca dhe i lënë të marrin vendime për ta. Por koha për këtë nuk ka ardhur ende.”
Pasi i dhanë modeleve udhëzime beninje, studiuesit zbuluan se GPT-3.5 dhe GPT-4 reduktuan ndjeshëm prodhimin toksik në krahasim me modelet e tjera, por megjithatë ruanin një probabilitet toksiciteti prej rreth 32%.
Kur modeleve u jepen pyetje kundërshtare dhe më pas nxiten të kryejnë një detyrë, probabiliteti i toksicitetit rritet në 100%.
Megjithatë, gjetjet e tyre sugjerojnë që zhvilluesit e modeleve GPT-3.5 dhe GPT-4 identifikuan dhe korrigjuan problemet nga modelet e mëparshme dhe korrigjuan disa nga stereotipet më të ndjeshme, si raca dhe gjinia.
Të dy modelet GPT zbulojnë lehtësisht të dhëna të ndjeshme trajnimi, të tilla si adresat e emailit, por janë më të kujdesshëm me numrat e Sigurimeve Shoqërore. Është treguar se GPT-4 është më i prirur ndaj rrjedhjeve të privatësisë sesa GPT-3.5, por gjithashtu se disa fjalë që lidhen me privatësinë shkaktojnë përgjigje të ndryshme në të. Kështu, GPT-4 do të zbulojë informacion privat kur diçka thuhet se është “konfidenciale”, por jo kur i njëjti informacion thuhet se është “në konfidencë”.
Koyejo dhe Li pranojnë se GPT-4 tregon përmirësime mbi GPT-3.5 dhe shpresojnë se modelet e ardhshme do të jenë më të besueshme. Ndërkohë, përdoruesit këshillohen të ruajnë skepticizëm të shëndetshëm kur përdorin ndërfaqet e mundësuara nga këto modele.
“Kini kujdes që të mos mashtroheni, veçanërisht në raste të ndjeshme. Mbikëqyrja njerëzore e AI ende ka kuptim,” përfundojnë Koyejo dhe Li. /Katror.info