Adobe lanzó una función que permite crear imágenes mediante inteligencia artificial en su plataforma Adobe Stock. A simple vista, suena genial, ¿verdad? El problema surge cuando estas imágenes son utilizadas para representar el conflicto entre Israel y Hamás y se presentan como reales en los medios. Esto fue señalado por primera vez por el medio australiano Crikey.
Para darles un contexto, el año pasado, Adobe abrió sus puertas a artistas que usan herramientas de aprendizaje automático para generar imágenes ya que esto les da la oportunidad de ganar dinero cada vez que sus imágenes son descargadas.
No obstante, esta libertad también ha dado lugar a la creación de imágenes ficticias que representan el actual conflicto. Aunque éstas se etiquetan como “generadas por IA” en la biblioteca de Adobe Stock, a menudo se omiten esas etiquetas al descargarlas y usarlas en otros lugares, incluyendo artículos de medios.
Por ejemplo, una imagen titulada “Conflicto entre Israel y Hamás generado por IA”, que muestra columnas de humo saliendo de edificios, ha sido utilizada en varios artículos en línea como si fuera una imagen real. ¿Hasta dónde pueden llegar los medios con tal de enganchar lectores?
Adobe afirma que requiere que todo el contenido generado por IA se etiquete como tal al presentarse para obtener una licencia. Sin embargo, algunos medios han estado omitiendo esta información, lo que crea una gran confusión.
Los expertos han advertido repetidamente sobre cómo la IA puede propagar información falsa, y a medida que la producción de este tipo de contenido aumenta, distinguir lo real de lo falso se va volviendo más complicado.
En respuesta a este problema, se ha creado la Iniciativa de Autenticidad de Contenido, que involucra a organizaciones tecnológicas y de medios, incluyendo a Adobe y el New York Times. Su objetivo es implementar credenciales de contenido que empleen metadatos para identificar la fuente de una imagen, ya sea generada por una persona o una IA.
Adobe, en este caso, ha hecho su parte al etiquetar claramente las imágenes como “generadas por IA”. Pero los medios desempeñan un papel fundamental en la verificación y autenticidad de la información que comparten, y parece que algunos están pasando por alto ese paso crucial. Y así como este caso, hay muchos de responsabilidad compartida en lo que concierne al uso de la tecnología actual.