Aproximarnos con cautela a las imágenes extrañas, estar atento a los detalles y contrastar las fuentes resultan clave en este análisis
En tiempos en donde la Inteligencia Artificial (IA) vuelve cada vez más compleja, la frontera entre lo real y lo generado por algoritmos, se brindará a continuación una serie de pautas a tener en cuenta para no caer en la trampa de las imágenes falsas que, vaya paradoja, hasta han recibido premios.
Tal es el caso emblemático del artista alemán Boris Eldagsen, quien ganó el Sony World Photography Awards con una imagen creada mediante IA.
Cabe mencionar que el alemán renunció al premio mencionado para abrir el debate sobre la autenticidad en el arte fotográfico.
Otro de los ejemplos de las llamadas deepfakes es el de la imagen viral del papa Francisco, en donde se lo ve luciendo un abrigo blanco de Balenciaga.
A pesar de su apariencia realista, la imagen presentaba detalles anómalos como una oreja distorsionada y gafas mal definidas, evidenciando su origen artificial.
Aunque una situación más preocupante es el uso de IA para crear contenido sexual de menores.
Recientemente, se han reportado casos donde adolescentes utilizaron herramientas de IA para generar y distribuir imágenes pornográficas de compañeras de clase sin su consentimiento.
Esta situación ha llevado a la aprobación de leyes específicas para sancionar estas prácticas en algunas partes del mundo, aunque no aún en Argentina.

Para identificar si una imagen fue generada por IA, vamos a cotejar estos cinco aspectos que nos van a prevenir y ayudar para no caer en la trampa de las imágenes falsas.
Qué son los metadatos y por qué pueden darnos pistas sobre una imagen
Es importante aclarar que el origen de las imágenes se identifica en la descripción y/o comentarios de la imagen.
Una manera de detectar si una imagen o un video han sido creados mediante IA es revisar la descripción y los comentarios relacionados con la imagen.
Habitualmente los autores de esas imágenes suelen mencionar si su obra se generó mediante esta tecnología.
Para poderlo identificar hay que localizar palabras clave como «IA», «DALL-E», «Midjourney» u otros nombres de herramientas de inteligencia artificial generativa.
Las marcas de agua
Algunas herramientas, como DALL-E, incorporan marcas sutiles en las imágenes, aunque estas pueden ser eliminadas.
En este caso se trata de un conjunto de cinco cuadrados de color amarillo, turquesa, verde, rojo y azul. Son sutiles y pueden ubicarse en la esquina de la imagen.
No obstante, también hay formas de eliminar esta marca de agua, por lo que hay que tener en cuenta otros factores en el momento de verificar las imágenes.
También es importante estar atento a los detalles más finos de las imágenes, como rasgos o expresiones faciales poco usuales que pueden delatar que una imagen está generada por la IA.
Verificación de fuentes
Si una imagen parece extraordinaria, lo primero que se debería verificar es la fuente, realizando una búsqueda inversa de imágenes para determinar su origen.
En caso de no poder encontrarla en fuentes de noticias respetadas y parece demasiado asombrosa para ser real, es posible que haya sido generada por IA.
También para ahorrarnos ese trabajo de investigación, se pueden utilizar herramientas especializadas como SynthID de Google, que inserta marcas digitales imperceptibles en imágenes generadas por IA , o AI or Not, que permite analizar imágenes para determinar su origen.