Nicolás Maduro reaccionó con ironía y aseguró que era un robot mientras imitaba el movimiento mecánico propio de estas creaciones.
Por iProfesional
24/02/2023 – 10,01hs
El presidente de Venezuela, Nicolás Maduro, se sumó al debate en torno a las acusaciones del uso de la inteligencia artificial para desinformar en ese país. El mandatario criticó una nota publicada en el diario español El País que afirma que avatares que simulan ser presentadores de noticias difunden información falsa sobre la situación económica del país sudamericano.
Maduro reaccionó con ironía y aseguró que era un robot mientras imitaba el movimiento mecánico propio de estas creaciones. “Nos acusan de que somos robots, que no existimos… No, no es la inteligencia artificial, es la inteligencia popular, es la inteligencia revolucionaria“, dijo Maduro.
La cadena de TV estadounidense CNN aseguró que no existen tales presentadores de televisión y que tampoco se trata de un noticiero de verdad. En el sitio web de Synthesia, una plataforma de video de inteligencia artificial que permite crear producciones de alta calidad, CNN identificó a Andy, a Thomas y a Emma como avatares al servicio de cualquier usuario que quiera crear contenido.
Estos tres avatares son los mismos que aparecen en los videos sobre la supuesta recuperación económica de Venezuela, y fueron publicados por House of News, una supuesta agencia que tiene una cuenta en YouTube desde el 26 de enero.
CNN informó que intentó sin éxito contactar a los responsables de la cuenta y con Synthesia para averiguar si tiene como cliente al Gobierno de Venezuela. CNN también informó que consultó al Gobierno venezolano si guarda relación con estos videos, también sin conseguir respuesta.
El relato de estos avatares, que hablaba de la supuesta recuperación económica de Venezuela sin citar cifras, se viralizó esta semana y puso de manifiesto las preocupaciones de periodistas por el uso de la inteligencia artificial para difundir propaganda y desinformación en el país sudamericano.
La manipulación de las “deep fake”
La ONG Cazadores de Fake News explicó que los videos protagonizados por avatares generan mucha más confusión. “Primero se crea una falsa fuente, llamada House of News, que no es un noticiero, sino que simula serlo, y además se crea una falsa ancla para darle credibilidad. Son prácticas comunes para desinformar“, dijo su director Adrián González.
El coordinador de la coalición C-informa, Andrés Cañizales, aseguró que hacer estos videos “no es algo excesivamente costoso, ni excesivamente difícil, ni excesivamente lento”. Dijo que se trata de una herramienta que está hoy al alcance de los gobiernos y de cualquiera que intente desinformar.
La directora editorial de factchequeado.com, Tamoa Calzadilla, afirmó que se trata de un perfeccionamiento de las técnicas para desinformar y que es una “deep fake”.
Calzadilla lo describió como “una manipulación a través de técnicas digitales como la inteligencia artificial para crear imágenes en movimiento con audios y personajes que no son reales pero que se muestran como tales para confundir y engañar al público”.
A juicio de Víctor Amaya, director del diario Tal cual y de Espaja.com, este tipo de campañas “le meten más ruido a la conversación pública en Venezuela“. “Si una persona no puede confiar en nada de lo que pasa en redes, entonces desconfía de todos. De los medios más consolidados, de los que no, de los que son nuevos”, recomendó.
El relato de los avatares Andy, Thomas y Enma habla de la recuperación económica de Venezuela. Ese optimismo contrasta con los reportes de Ecoanalítica. En enero de este año, según la firma, se registró una caída de 17,5% en el índice de volumen de ventas con respecto al mismo mes de 2022.