Google ka publikuar dy modele të reja të Inteligjencës Artificiale për fushën e mjekësisë, MedGemma 27B dhe MedSigLIP, duke i vënë në dispozicion falas për studiues, spitale dhe zhvillues.
Siç pretendohet, modeli kryesor MedGemma 27B nuk lexon vetëm tekstet mjekësore siç bënin versionet e mëparshme; ai në fakt mund të “shikojë” imazhet mjekësore dhe të kuptojë se çfarë po sheh aty, përcjell Telegrafi.
Qofshin rreze X të kraharorit, diapozitiva patologjike apo të dhëna të pacientëve që potencialisht përfshijnë muaj ose vite, ai mund t’i përpunojë të gjitha këto informacione së bashku, ashtu siç do të bënte një mjek.
Dhe shifrat e performancës thuhet se janë mjaft mbresëlënëse.
Kur u testua në MedQA, një pikë referimi standarde e njohurive mjekësore, modeli i tekstit 27B shënoi 87.7%.
Kjo e vendos atë “në një distancë të shkurtër” nga modelet shumë më të mëdha dhe më të shtrenjta, ndërsa kushton rreth një të dhjetën e kostos për t’u përdorur.
Dhe sidomos për sistemet e kujdesit shëndetësor me para të kufizuara, kjo është potencialisht transformuese.
Ndërsa modeli më i vogël, MedGemma 4B, mund të jetë më modest në madhësi, por nuk është i dobët.
Veç kësaj, Google ka lansuar edhe MedSigLIP. Me vetëm 400 milionë parametra, ai është trajnuar për të kuptuar imazhet mjekësore në mënyrë të thellë.
Spitale në SHBA, Tajvan dhe Indi tashmë po testojnë këto modele me rezultate inkurajuese.
Përmes këtij hapi, Google synon të sjellë teknologjinë më të avancuar edhe në sistemet shëndetësore me buxhete të kufizuara.
Modelet mund të përdoren në pajisje të zakonshme, duke hapur rrugën për aplikime klinike edhe në zona rurale apo vendet në zhvillim.
Megjithatë, nuk mund të shmanget pyetja: Ndryshim i lojës apo veprim i rrezikshëm? Çfarë mendoni ju? /Telegrafi/Katror.info.