Një studim i ri nga University of Texas, Texas A&M dhe Purdue University tregon se modelet e mëdha të gjuhës (LLM), kur ushqehen me përmbajtje të popullarizuar por me cilësi të ulët nga rrjetet sociale, mund të përjetojnë një lloj “brain rot”, i ngjashëm me atë që ndodh tek njerëzit që kalojnë shumë kohë duke “doomscroll” në X ose TikTok.
“Ne jetojmë në një epokë ku informacioni rritet më shpejt sesa vëmendja jonë — dhe shumë prej tij është krijuar për klikime, jo për të përcjellë të vërtetën ose thellësi,” thotë Junyuan Hong, profesor në National University of Singapore, i cili ka punuar në studim.
Studiuesit ushqyen dy modele open-source, Meta’s Llama dhe Alibaba’s Qwen, me përzierje postimesh nga rrjetet sociale dhe më pas analizuan efektin e kësaj shprehie tek modelet.
Rezultatet treguan se modelet e ushqyera me përmbajtje të dobët pësojnë një lloj “brain rot”, duke përfshirë aftësi të zvogëluara arsyetimi dhe kujtesë të degraduar.
Efekti ngjason me studimet mbi njerëzit, që tregojnë se përmbajtja online e dobët ka ndikim negativ mbi aftësitë kognitive.
Hong thekson se këto rezultate janë të rëndësishme për industrinë e AI, pasi ndërtuesit e modeleve mund të supozojnë gabimisht se postimet virale janë burim i mirë për trajnimin e modeleve./AP/Katror.info









