La inteligencia artificial revolucionó las comunicaciones en todo el mundo en los últimos meses. Se infiltró en la música —molestando a muchos famosos—, en la industria pornográfica, en la medicina y hasta en los planes geopolíticos de China. Por ende, no podía esperarse que se mantuviera a raya en la guerra entre el grupo terrorista Hamás e Israel.
Investigadores de la cadena CBS News en Manhattan lo vieron con sus propios ojos. De los 1000 videos que revisaron sobre el ataque terrorista de Hamás a la frontera con Israel, solo 10 eran reales. Los otros 900 fueron creados con inteligencia artificial. En otras palabras, internet nuevamente se convierte en campo de batalla, como lo fue al principio de la guerra rusa contra Ucrania.
Michael Matias, director ejecutivo de la startup Clarity, dijo a The Times of Israel lo siguiente: “Una espectacular súper evolución de la desinformación nos está arrasando y, especialmente en la guerra, tiene un impacto dramático”. Palabras certeras cuando se verifican varias imágenes que generaron consternación, pero resultaron ser deepfakes. Todo obedece a la necesidad de generar patriotismo y resentimiento, como ocurrió con una imagen de un padre con sus cinco hijos en medio de escombros en Gaza por los supuestos bombardeos israelíes. La triste, y falsa escena, fue creada con inteligencia artificial.
“Van a empeorar” los deepfakes
Identificar imágenes creadas por IA no es imposible si se miran los detalles. Esa foto del “padre palestino” con “sus hijos”, se ve a un hombre con brazos de diferentes tamaños. Los brazos de los dos niños a la altura de su cuello parecen fusionarse, otros tienen menos dedos en manos y pies. Pero a pesar de eso, la embajada china en Francia difundió la imagen en su cuenta de X (antes Twitter). En paralelo, la publicó otra persona en Facebook. Ahí fue compartida 82000 veces, de acuerdo con el verificador de hechos de la agencia AFP.
Algunos expertos tecnológicos aseguran que crear sufrimiento a través de imágenes artificiales es una tendencia que “va a empeorar” en el futuro, como aseguró a Associated Press Jean-Claude Goldenstein, director ejecutivo de CREOpoint, empresa que utiliza inteligencia artificial para evaluar la validez de reclamos en línea.
Otras fotos difundidas para generar consternación fue la de un supuesto bebé israelí carbonizado o la de una familia palestina comiendo entre los escombros para generar empatía en los internautas. En esta última, las caras están deformadas y hasta hay fallos en los brazos, algunas personas tienen dos de estos. Ahora bien ¿de dónde vienen estas imágenes? Muchas veces las distribuyen cuentas privadas en redes sociales. En otros casos, empresas como Adobe ofrece a la venta imágenes de IA de la guerra de Medio Oriente, que terminan en manos inescrupulosas que las propagan sin advertir que son falsas.
Sin regulaciones efectivas
Hay iniciativas que buscan regular la inteligencia artificial, pero van mucho más lento que los avances de esta tecnología. Elon Musk, actual dueño de X, advirtió en el pasado la necesidad de aplicar leyes. Sin embargo, los estragos parecen incontrolables. Hasta varios chatbots optaron por tildar de “engañosos” a medios conservadores sin fundamentos que expliquen esa clasificación.
Mientras distintos países siguen debatiendo regulaciones, hay iniciativas como Factiverse, empresa noruega que ha creado un programa capaz de escanear contenido en busca de imprecisiones deepfakes creados con inteligencia artificial. Aún así, los expertos miran con lupa lo que ocurre en internet y cómo se exacerban los ánimos en medio de la guerra gracias en parte a imágenes falsas que evocan tristeza y aumentan el resentimiento.