Videos falsos sobre la guerra en Oriente Medio se multiplican en X pese a las advertencias
Falsos videos creados con inteligencia artificial (IA) se multiplican en la red X y muestran soldados estadounidenses capturados por Irán, una ciudad israelí en ruinas o embajadas de Estados Unidos en llamas, en una ola de desinformación a pesar a una dura política para frenarla.
La guerra en Oriente Medio ha generado una avalancha de imágenes generadas con IA que supera todo lo visto en conflictos anteriores y a menudo deja a los usuarios sin poder distinguir lo real de lo ficticio, aseguran investigadores.
En un intento por proteger la "información auténtica" durante conflictos, la red de Elon Musk anunció la semana pasada que suspendería por 90 días de su programa de ingresos a los creadores que publicasen videos sobre la guerra sin aviso de que fueron generados con IA.
Además, si seguían publicándolos, la suspensión sería permanente, según advertía en la misma red la jefe de producto, Nikita Bier.
La nueva política interna es un giro importante en una plataforma duramente criticada por convertirse en el paraíso de la desinformación desde que Musk la compró por 44.000 millones de dólares en octubre de 2022.
Sin embargo, los investigadores de la desinformación se mantienen escépticos.
"Los hilos que monitoreo están aún inundados con contenido sobre la guerra generado por IA", declaró a la AFP Joe Bodnar del Instituto para el Diálogo Estratégico.
"No parece que los creadores (de contenidos) hayan sido disuadidos de difundir imágenes y videos engañosos sobre el conflicto generados por IA", agregó.
Bodnar apuntó a una publicación de una cuenta "blue check" o verificada, elegible para la monetización en X, que compartió un video hecho con IA en el que muestra un supuesto ataque iraní "con capacidad nuclear" contra Israel.
- Incentivos por 'fakes' -
X no respondió a una pregunta de la AFP sobre cuántas cuentas ha desmonetizado desde el anuncio de Bier.
La red global de verificadores de contenido de la AFP, de Brasil a India, identificó un flujo de contenidos falsos sobre la guerra en Oriente Medio generados con IA, muchos procedentes de cuentas de pago de X, con la marca azul.
Entre estos hay videos hechos con IA que muestran soldados estadounidenses que lloran dentro de una embajada bombardeada, o tropas capturadas y de rodillas al lado de banderas iraníes, así como una flota de naves estadounidenses destruidas.
Este flujo de imágenes fabricadas mezcladas con imágenes reales de Oriente Medio continúa creciendo a un ritmo más rápido del que los profesionales de la verificación pueden señalarlos.
El propio chatbot de IA de X, Grok, pareció empeorar el problema al responder equivocadamente a los usuarios que buscaban verificar si algunos contenidos generados por IA sobre la guerra eran reales.
Los investigadores también han advertido que el modelo de X —que permite a las cuentas premium ganar dinero en función de la interacción— ha multiplicado el incentivo económico por contenido falso o sensacionalista.
Una cuenta premium, que publicó un video que muestra en llamas al rascacielos Burj Khalifa en Dubái ignoró el pedido de Bier de identificarlo como obra de la IA. Sigue en línea y ha alcanzado más de 2 millones de vistas.
- 'Contramedida' -
El mes pasado, un informe del Tech Transparency Project señaló que X parecía obtener beneficios de más de dos docenas de cuentas premium de funcionarios del gobierno iraní y medios controlados por el Estado que difundían propaganda, lo que podría violar sanciones estadounidenses.
Posteriormente, X retiró la marca de verificación azul a algunos de ellos, según el informe.
Incluso si la penalización de X se aplicara de manera estricta, muchos usuarios que difunden contenido generado por IA no forman parte del programa de ingresos, afirman los investigadores.
Esos usuarios siguen sujetos a verificación a través de Community Notes, un sistema cuya eficacia ha sido cuestionada.
El año pasado, un estudio del Instituto Democracia Digital para las Américas descubrió que más del 90% de las Community Notes de X nunca se publican.
"La política de X es una contramedida razonable frente a la desinformación viral sobre la guerra. En principio, esta política reduce la estructura de incentivos", dijo Alexios Mantzarlis, director de Security, Trust, and Safety Initiative en Cornell Tech.
Pero "es poco probable que X pueda garantizar al mismo tiempo una alta precisión y una alta retirada (de contenidos generados con IA de la red) a través de esta política", agregó.
burs-ac/js/cjc/mar
C.Nam--SG