El risc de la intel·ligència artificial

Google, Microsoft i Meta pacten limitar els ‘deepfakes’ electorals

Les grans tecnològiques firmaran aquesta setmana el manifest d’un acord que no veta els continguts polítics enganyosos

Les grans empreses tecnològiques que lideren el desenvolupament de la intel·ligència artificial (IA) firmaran aquesta setmana un manifest en el qual es comprometran a combatre l’ús de deepfakes per a la manipulació política en un 2024 que serà l’any electoral més gran de la història.

L’acord estarà firmat per Google, Microsoft, Meta (Facebook), OpenAI, Adobe i TikTok. No obstant, aquests gegants no prohibiran els continguts polítics enganyosos generats amb les seves aplicacions d’IA, segons una còpia obtinguda per The Washington Post. En el seu lloc, prometran crear sistemes d’identificació i alerta. A més, s’"educarà" els usuaris per ajudar-los a enfrontar-se als deepfakes. Per acabar-ho d’adobar, es tractarà d’un compromís voluntari, així que no estaran obligades a fer el que diuen que faran.

Els deepfakes se serveixen de la IA per generar imatges i àudios que puguin clonar de manera convincent la cara i la veu de les seves víctimes, suplantant així la seva identitat. Aquesta tecnologia és cada vegada més sofisticada, cosa que dificulta determinar si allò que veiem i escoltem és real o una campanya de manipulació.

Aquesta possibilitat suposa un risc majúscul per a la democràcia. "La generació i distribució intencionades i no divulgades de continguts electorals enganyosos basats en IA poden induir el públic a error i posar en perill la integritat dels processos electorals", es reconeix en l’acord.