¿Cuántas imágenes de IA circulan en la guerra entre Israel y Hamás?
Durante la guerra de Ucrania, las imágenes y videos creados con la ayuda de la inteligencia artificial contribuyeron a la desinformación, y siguen haciéndolo. Debido a que las herramientas de IA se han desarrollado rápidamente en los últimos tiempos, muchos observadores esperaban una presencia aún mayor de IA en la guerra entre Israel y Hamás. Pero, según los expertos, la gran avalancha de imágenes de IA no se ha producido hasta ahora.
“No vemos un uso masivo de imágenes generadas por IA”, afirma Tommaso Canetta, del Observatorio Europeo de Medios Digitales. “La cantidad es bastante pequeña si la comparamos con otras formas de desinformación, como imágenes y videos antiguos que ahora se redistribuyen de forma engañosa”. Sin embargo, eso no significa que la tecnología no desempeñe ningún papel.
El experto Hany Farid explica en una entrevista a DW que no considera relevante el número de falsificaciones de IA. “Ya solo dos imágenes que se vuelven virales y son vistas por cientos de millones de personas pueden tener un impacto enorme”. La principal eficacia de las falsificaciones de IA y otras formas de desinformación es que “contaminan el ecosistema de la información”.
¿A qué narrativas sirven las falsificaciones de la IA en la guerra entre Israel y Hamás?
Las imágenes de IA que circulan en las redes sociales suelen provocar fuertes emociones en quienes las visualizan. El experto Canetta identifica dos categorías principales: imágenes que se centran en el sufrimiento de la población civil y despiertan compasión por las personas que se muestran en ellas. Y falsificaciones de IA que fingen un exagerado apoyo a Israel, Hamás o los palestinos, y apelan a sentimientos patrióticos.
En la segunda categoría está la imagen que se puede ver aquí debajo, en la que soldados israelíes caminan por un asentamiento lleno de casas bombardeadas ondeando banderas israelíes. Las cuentas que difundieron la imagen en Instagram y X parecen ser proisraelíes y acogen con agrado los acontecimientos descritos. DW también encontró la imagen como foto de un artículo en un periódico en línea búlgaro, que no la reconoció ni la etiquetó como generada por IA.
Lo que parece falso aquí es la forma en que ondean las banderas israelíes. Además, la calle parece demasiado limpia en el centro, mientras que los escombros parecen muy uniformes. Los edificios destruidos también parecen ser idénticos, y se encuentran ubicados a intervalos bastante regulares. En definitiva, la impresión visual es demasiado “limpia” para ser real. Esta perfección, que hace que las imágenes parezcan pintadas, también es típica de la IA.
¿Cuánto daño causan las imágenes de IA?
El conocimiento de que circula contenido de IA hace que los usuarios se sientan inseguros acerca de todo lo que encuentran en internet. Farid, investigador de Berkeley, explica: “La capacidad de manipular imágenes, audio y video hace que todo se cuestione”. A veces sucede que las imágenes reales se tildan incorrectamente de no auténticas.
Esto es lo que sucedió en este caso: una imagen que se dice que muestra el cadáver carbonizado de un bebé israelí fue compartida en X, entre otros, por el primer ministro israelí, Benjamín Netanyahu, y el comentarista conservador estadounidense Ben Shapiro. El controvertido influencer antiisraelí Jackson Hinkle afirmó luego que la imagen fue creada utilizando inteligencia artificial.
Como supuesta evidencia, Hinkle adjuntó a su publicación la captura de pantalla del detector AI or not, que clasificó la imagen como generada por IA. La afirmación de Hinkle en X fue vista más de 20 millones de veces y dio lugar a acaloradas discusiones. Hany Farid también dijo a DW que no pudo encontrar ninguna discrepancia en la imagen que indicara que es una IA falsa.
¿Cómo funcionan las falsificaciones generadas por IA?
La IA está ahora en todas partes, incluso en la guerra. La aplicabilidad de la inteligencia artificial ha mejorado mucho este año. Casi cualquiera puede ahora utilizar generadores de IA comunes para crear imágenes que parezcan reales, al menos a primera vista. Para hacer esto, los usuarios tienen que “alimentar” herramientas como Midjourney o Dall-E con indicaciones, es decir, especificaciones e información. Luego, las herramientas las convierten en imágenes. Algunos crean ilustraciones más artísticas, otros crean imágenes fotorrealistas. El proceso de generación se basa en el llamado aprendizaje automático. Gracias a cada vez más aportaciones y mejoras técnicas, las herramientas han mejorado mucho en los últimos años y meses, y están aprendiendo más de manera constante.
Esto funciona también así en el caso de las imágenes del conflicto del Cercano Oriente. Los usuarios utilizan las herramientas para crear escenas más o menos realistas que, según nuestras observaciones, a menudo pretenden representar momentos emotivos para difundir determinadas narrativas. En este conflicto, “en el que las emociones están muy, muy en alto”, dice el experto en inteligencia artificial Hany Farid, la desinformación, incluido el uso de imágenes de inteligencia artificial, funciona particularmente bien. El endurecimiento de ambos frentes es el caldo de cultivo perfecto para crear y difundir contenidos falsos y amplificar las emociones, dice Farid, que trabaja como profesor de Ciencia Forense Digital en la Universidad de Berkeley, California.