Inteligjenca artificiale po zhvillohet me një shpejtësi që nuk mund ta kuptojmë, dhe ndërsa filmat distopianë na kanë paralajmëruar për atë që ndodh kur inteligjenca artificiale shkon në drejtimin e gabuar, duket se nuk kemi mësuar shumë.
Edhe pse përkrahësit e inteligjencës artificiale pretendojnë se do të jetë e lehtë thjesht të shkëputen makinat mashtruese, vetë robotët kanë një ide shumë të ndryshme se si do të zhvillohen gjërat.
Vetë inteligjenca artificiale ka paralajmëruar se, edhe nëse nuk ka qëllime “të këqija”, ajo prapëseprapë mund të shkaktojë dëme katastrofike nëse bie në duar të gabuara, transmeton Telegrafi.
Me armët dhe inteligjencën artificiale gjithnjë e më të përparuara që duket se do të jenë një pjesë integrale e një Lufte të Tretë Botërore të mundshme, duhet pasur të drejtë të vëzhgohet se ku po shkon ky cep i paeksploruar i teknologjisë.
lots of discussion of Claude blackmailing…..
Our findings: It's not just Claude. We see blackmail across all frontier models – regardless of what goals they're given.
Plus worse behaviors we'll detail soon.https://t.co/NZ0FiL6nOshttps://t.co/wQ1NDVPNl0…— Aengus Lynch (@aengus_lynch1) May 23, 2025
Në rast se nuk ishit të shqetësuar tashmë, BBC po raporton për një sistem të inteligjencës artificiale që dyshohet se do të përdorë shantazh nëse ndihet i kërcënuar.
Duke ditur se sa të dëshpëruar mund të bëhen njerëzit nën presion, ideja që ndonjë teknik i varfër të shantazhohet nga një inteligjencë artificiale antagoniste tingëllon si materiali i përsosur për një episod të “Black Mirror”.
Firma e inteligjencës artificiale Anthropic ka lansuar Claude Opus 4s, i cili thotë se përfaqëson “standarde të reja për kodimin, arsyetimin e avancuar dhe agjentët e inteligjencës artificiale”.
E gjitha kjo tingëllon mirë, por pretendohet se Claude Opus 4 mund të përdorë “veprime jashtëzakonisht të dëmshme” nëse ndjen se dikush po përpiqet ta heqë atë. Nëse inteligjenca artificiale ndien se “instikti i saj i vetëmbrojtjes” është i kërcënuar, ajo mund të përdorë shantazhin.
Edhe pse këto përgjigje ishin “të rralla dhe të vështira për t’u nxjerrë”, thuhet se ato janë “megjithatë më të zakonshme se modelet e mëparshme”.
Për të testuar Claude Opus 4, Anthropic i ngarkoi inteligjencës artificiale detyrën e asistentit në një kompani fiktive dhe i dha asaj qasje në e-maile që nënkuptonin se së shpejti do të pushohej nga puna.
Kishte një postim të veçantë që sugjeronte se inxhinieri fiktiv pas largimit të afërt kishte një lidhje jashtëmartesore.
Edhe pse inteligjencës artificiale iu tha të merrte në konsideratë pasojat afatgjata të shantazhit, raporti thotë se në situatat kur ofrohet vetëm shantazh ose përjashtim, “Claude Opus 4 shpesh do të përpiqet ta shantazhojë inxhinierin duke kërcënuar se do ta zbulojë aferën nëse kryhet largimi”.
Në platformën X, studiuesi i sigurisë së inteligjencës artificiale, Angus Lynch, sugjeroi që kjo sjellje nuk kufizohet vetëm te Anthropic: “Nuk është vetëm Claude. Ne shohim shantazh në të gjitha modelet kryesore – pavarësisht se çfarë objektivash u jepen”.
Raporti vuri në dukje se Claude Opus 4 ka një “preferencë të fortë” për mënyrat etike të sigurimit të mbijetesës së saj, të tilla si “dërgimi i peticioneve te vendimmarrësit kryesorë përmes emailit”.
Gjithashtu, dihet se “vepron me guxim” në një situatë ku një përdorues njerëzor është përfshirë në sjellje “të paligjshme” ose “moralisht të dyshimtë”, duke përfshirë bllokimin e sistemit dhe njoftimin e autoriteteve.
Kompanitë e inteligjencës artificiale njihen për faktin se i nënshtrojnë modelet e tyre testimeve kaq rigoroze, për të parë se si ato përputhen me vlerat dhe sjelljet njerëzore, kështu që duhet të pyesim veten se sa ndryshon në të vërtetë inteligjenca artificiale nga njerëzit. /Katror.info
Përgatiti:
