Inteligjenca artificiale ka hapur një botë krejtësisht të re të mundësive për tu shprehur. Nga njëra anë, mundësoi transferimin e disa detyrave të përsëritura në kompjuter dhe nga ana tjetër, na tregoi se çfarë është në gjendje të bëjë. Sidoqoftë, chatbot-et dhe mjetet e inteligjencës artificiale të disponueshme sot kanë treguar gjithashtu një seri të tërë problemesh për të cilat duhet të mendojmë. Një prej tyre është manipulimi i fotove.
Prandaj, ekipi nga Instituti i Teknologjisë në Massachusetts studioi me kujdes mjetet më të famshme për manipulimin e fotografive duke përdorur inteligjencën artificiale, DALL-E dhe Midjourney, në mënyrë që të gjenin një mënyrë për të mbrojtur të gjitha ose të paktën pjesë të fotografive nga manipulimi nga inteligjenca artificiale.
Ata zbuluan se vendosja e ujit në foto është një mënyrë që mund të ndihmojë në parandalimin e abuzimit, por nuk është perfekte. Kjo është arsyeja pse ata zhvilluan teknikën e tyre dhe e quajtën atë “PhotoGuard”.
Është një teknikë perturbimi, pra futja e ndryshimeve të vogla në vlerat e pikselit që janë të padukshme për syrin e njeriut, por që mund të zbulohen nga modelet kompjuterike dhe që pengojnë efektivisht aftësinë e modeleve të AI për të manipuluar imazhin.
PhotoGuard, siç shpjegohet nga MIT, përdor dy metoda të ndryshme për të gjeneruar këto “ndërhyrje”. Një sulm më i thjeshtë “enkoder” synon paraqitjen latente të imazhit në modelin e AI, duke bërë që modeli ta perceptojë imazhin si një entitet të rastësishëm. “Difuzion” më i sofistikuar përcakton imazhin e synuar dhe optimizon shqetësimet në mënyrë që imazhi përfundimtar të jetë sa më i ngjashëm me objektivin, shkruan Katror.info.
Merrni parasysh mundësinë e përhapjes së rreme të ngjarjeve të rreme katastrofike, të tilla si një shpërthim në një pikë referimi. Ky mashtrim mund të manipulojë tendencat e tregut dhe ndjenjat publike, por rreziqet nuk kufizohen vetëm në sferën publike.
Imazhet personale mund të ndryshohen në mënyrë të papërshtatshme dhe të përdoren për shantazh, duke rezultuar në implikime të rëndësishme financiare kur kryhen në një shkallë të gjerë, shpjegon Hadi Salman, një student i diplomuar i Inxhinierisë Elektrike dhe Kompjuterike (EECS) në MIT CSAIL dhe autori kryesor i punimit PhotoGuard.
Në skenarë më ekstremë, këto modele mund të simulojnë zëra dhe imazhe për të organizuar krime të rreme, duke shkaktuar dëm psikologjik dhe humbje financiare. Edhe kur mashtrimi zbulohet përfundimisht, dëmi – qoftë reputacion, emocional apo financiar – shpesh ka ndodhur tashmë.
Ky është një realitet për viktimat në të gjitha nivelet, nga individët që ngacmohen në shkollë e deri tek manipulimi në të gjithë shoqërinë.
Por që PhotoGuard të jetë efektiv, duhet të jetë i ngulitur në modelet e AI.
Autoritetet duhet të konsiderojnë futjen e rregulloreve që do t’u kërkonin kompanive të mbrojnë të dhënat e përdoruesve nga manipulime të tilla. Zhvilluesit e modeleve të AI mund të dizajnojnë API që automatikisht shtojnë ndërhyrje në imazhet e përdoruesve, duke ofruar një shtresë shtesë mbrojtjeje kundër redaktimit të paautorizuar, shpjegon Salman, duke shtuar se ndërsa PhotoGuard është një zgjidhje e mirë, ajo nuk është gjithëpërfshirëse.
Ai përfundon se zgjidhja më e mirë do të ishte një qasje e përbashkët ndaj problemit, e cila do të përfshinte si zhvilluesit e modeleve, ashtu edhe mediat sociale dhe politikëbërësit, në mënyrë që problemi i manipulimit të fotografive duke përdorur inteligjencën artificiale të trajtohej nga të gjitha anët.
Ndërsa hyjmë në këtë epokë të re të modeleve gjeneruese, ne përpiqemi për potencial dhe mbrojtje në masë të barabartë, tha Salaman në një deklaratë për media./Katror.info