Menu

ADOBE VENDE IMÁGENES FALSAS DE ATAQUE EN GAZA, GENERADAS POR IA

Fuente: Red en Defensa de los Derechos Digitales

Adobe vende imágenes falsas de ataque en Gaza, generadas por inteligencia artificial.
Imagen (CC BY) Gibrán Aquino

Diversas publicaciones en línea están utilizando una imagen fotorrealista de un ataque con misiles, generada por inteligencia artificial, que Adobe Stock tiene en su catálogo, como una del conflicto en Gaza sin marcarla como falsa, denuncia el medio digital australiano Crikey.

Imágenes realistas, generadas artificialmente, de la guerra entre Israel y Hamás se han visto en diversos portales que no están etiquetándolas como imágenes falsas o creadas con ayuda de IA. Estas imágenes generadas artificialmente se muestran a toda persona que busque dentro de la plataforma de Adobe Stock mezcladas con imágenes de acervo reales.

Como parte de su apuesta por usar herramientas de inteligencia artificial generativa, Adobe permite subir y vender imágenes de IA como parte de su servicio de suscripción a imágenes de archivo, Adobe Stock. Adobe exige a las personas usuarias que las suben, que revelen si se han generado con inteligencia artificial y marca claramente la imagen en su plataforma como “generada con IA”. 

En medio de la avalancha de desinformación y contenidos en línea engañosos sobre la guerra entre Israel y Hamás que circulan por las redes sociales, imágenes de ataques con misiles, protestas, conflictos sobre el terreno e incluso niños huyendo de explosiones de bombas, las cuales fueron generadas por IA, también se están utilizando sin revelar si son reales o no.

El Dr. T.J. Thomson, profesor titular de la Universidad RMIT en Melbourne que investiga el uso de imágenes generadas por IA, afirma que preocupa la transparencia del uso de imágenes generadas por inteligencia artificial y si el público es lo suficientemente instruido como para reconocer su uso, ya que en el caso de los blogs y sitios que han publicado las imágenes, aún no queda claro si son conscientes de que se trata de una imagen falsa.

“Estas imágenes pueden engañar a la gente, distorsionar la realidad y alterar nuestra percepción de la verdad y la exactitud”, declaró Thomson. 

Por su parte, Thomson explica que, en las conversaciones mantenidas con las redacciones en el marco de su investigación, se ha constatado que el temor a la posibilidad de que se produzcan informaciones erróneas es una de las principales preocupaciones, pero también se plantean dudas sobre las implicaciones laborales de utilizar imágenes de IA en lugar de fotógrafos sobre el terreno.

Otro mal uso que se le está dando a herramientas de inteligencia artificial generativa es la clonación de voces con el fin de crear estafas bancarias, haciendo una imitación de voz casi perfecta a partir de una muestra de audio de solo tres segundos, algo fácil de obtener con la popularidad de la creación de videos en redes sociales como Instagram o Tiktok. 

Una experta que se ha posicionado en torno al tema de uso de inteligencia artificial fue Meredith Whittaker, presidenta de Signal, quien dijo recientemente en una entrevista que el uso de sistemas de IA generativa socavará profesiones creativas como el periodismo, el arte, la escritura, entre otras.