La inagrafía con apariencia fotográfica en el arte del siglo XXI

The Inagraphy with Photographic Appearance in the Art of the 21st Century

Ricardo Ocaña

Investigador independiente en creación fotográfica y visual, Granada, España.

Resumen

La inteligencia artificial ha introducido tecnologías y procedimientos completamente nuevos en el arte visual, constituyendo un ámbito de exploración artística emergente en el arte del siglo XXI. Entre ellos, el uso de algoritmos de aprendizaje profundo para la generación de imágenes con apariencia de fotografía está generando gran controversia en el ámbito artístico, cultural y social. El objetivo de este trabajo es elaborar un marco conceptual que favorezca la reflexión sobre el uso de la inteligencia artificial aplicada a la creación de imágenes con apariencia fotográfica. En este contexto se introduce el neologismo «inagrafía», definido como procedimiento o técnica que permite obtener imágenes fijas mediante un sistema de inteligencia artificial. Su diferenciación de la fotografía es esencial para comprender las aportaciones de esta nueva tecnología al arte visual. El desarrollo de este estudio ofrece una visión holística para el análisis de la creación inagráfica y para el debate sobre el presente y el futuro del arte en todas sus dimensiones.

Palabras Clave: inagrafía, fotografía, inteligencia artificial, arte visual.

Abstract

Artificial intelligence has introduced completely new procedures and technologies in the visual arts, constituting an emerging field of artistic exploration in 21st century art. Among them, the use of deep learning algorithms to generate images with the appearance of photography is generating great controversy in the artistic, cultural and social spheres. The objective of this work is to develop a conceptual framework that favors reflection on the use of artificial intelligence applied to the creation of images with a photographic appearance. In this context, the neologism «inagraphy» is introduced, defined as a procedure or technique that allows obtaining still images through an artificial intelligence system. Its differentiation with photography is essential to understand the contributions of this new technology to visual art. The development of this study offers a holistic vision for the analysis of inagraphic creation and for the debate on the present and the future of art in all its dimensions.

Key Words: inagraphy, photography, artificial intelligence, visual arts.

Summary – Sumario

1. Introducción

2. La incursión de la inteligencia artificial en el arte del siglo XXI

3. Sistemas de inteligencia artificial para la generación de imágenes con apariencia fotográfica

4. La inagrafía como procedimiento diferenciado de la fotografía

5. La mera inagrafía y la obra inagráfica

6. Referentes artísticos de la obra inagráfica

7. Reflexiones en torno a la creación inagráfica

8. Epílogo

cómo citar este trabajo / how to cite this paper

Ocaña, R. (2023). La inagrafía con apariencia fotográfica en el arte del siglo XXI. Umática. Revista sobre Creación y Análisis de la Imagen, 6. https://doi.org/10.24310/Umatica.2023.v5i6.16748

Artículo original
Original Article

Correspondencia/Correspondence

Ricardo Ocaña
ricardo.ocana.riola@gmail.com

Financiación/Fundings

Sin financiación

Received: 20.05.2023
Accepted: 11.07.2023

1. Introducción

El diccionario de la lengua española define inteligencia artificial como «disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico». Dependiendo del contexto, el término puede hacer referencia tanto a la disciplina científica como al sistema informático, siendo esta segunda acepción la utilizada en el ámbito del arte actual.

La expresión «inteligencia artificial» fue propuesta por primera vez por el informático estadounidense John McCarthy en la Conferencia de Dartmouth de 1955, donde hizo referencia a máquinas que actúan de tal forma que se llamarían inteligentes si un humano se comportara así (McCarthy et al., 1955). Aunque aún no existe una definición formal y consensuada para «inteligencia artificial», tanto la Comisión Europea como la Estrategia Nacional de Inteligencia Artificial del Gobierno de España describen este término como un sistema de software diseñado por humanos que toma las mejores decisiones para lograr un objetivo complejo (Ministerio de Asuntos Económicos y Transformación Digital [MINECO], 2020).

La inteligencia artificial es un concepto genérico que engloba varias categorías, entre las que se encuentra el aprendizaje profundo, conocido también por el anglicismo «deep learning». Bajo este término se engloban aquellos algoritmos que utilizan redes neuronales artificiales para resolver problemas complejos, realizar predicciones precisas y reconocer patrones en grandes conjuntos de datos mediante un proceso de entrenamiento intensivo. Su funcionamiento se inspira en la estructura y en las funciones del cerebro humano, siendo capaces de aprender a partir de la información suministrada (Alzubaidi et al., 2021). De esta forma surgen los sistemas de inteligencia artificial que crean o modifican contenido digital de manera autónoma, sin intervención humana directa. El producto resultante son imágenes, videos, audios o textos producidos por algoritmos.

La inteligencia artificial ha introducido tecnologías, conceptos y procedimientos completamente nuevos en el arte visual, constituyendo áreas de exploración emergente con gran repercusión en el arte del siglo XXI. Entre ellas, el uso de algoritmos de aprendizaje profundo para la creación de imágenes con apariencia de fotografía está generando gran controversia en el ámbito artístico, cultural y social. Sin embargo, para lograr un debate fructífero es necesaria una contextualización dentro del arte postcontemporáneo, emergente y digital que permita comprender las aportaciones de esta nueva tendencia.

El objetivo de este trabajo es elaborar un marco conceptual que favorezca la reflexión sobre el uso de la inteligencia artificial aplicada a la creación de imágenes con apariencia fotográfica, aportando una visión holística para el análisis de esta manifestación en el ámbito del arte actual.

2. La incursión de la inteligencia artificial en el arte del siglo XXI

Durante los últimos años, los avances en el procesamiento y almacenamiento de la información han permitido entrenar Redes Neuronales Artificiales cada vez más complejas. Esto ha promovido la rápida difusión de los modelos de aprendizaje profundo y su aplicación en muchas áreas de conocimiento, entre las que se encuentra el arte (De Propios, 2022). Dependiendo de su arquitectura, estos modelos se pueden organizar en diferentes clases. Actualmente, los más utilizados para la generación de imágenes artísticas son las Redes Neuronales Convolucionales, las Redes Neuronales Generativas, las Redes Neuronales Recurrentes y la Transferencia de Estilo Neuronal. Todas ellas poseen características particulares que han suscitado interés en distintos ámbitos del arte.

2.1. Redes Neuronales Convolucionales (Convolutional Neural Networks, CNN)

Estas redes neuronales están compuestas por varias capas que buscan patrones en la información y extraen características de las imágenes a través de filtros sucesivos. Se utilizan principalmente para el procesamiento de imágenes y video. Entre las redes neuronales convolucionales más conocidas se encuentra «Deep Dream», un modelo de aprendizaje profundo diseñado por Alexander Mordvintsevel, ingeniero informático de Google. Esta red neuronal ha sido entrenada para amplificar patrones y características específicas de la imagen original. El resultado es la transformación de la imagen de entrada en una nueva imagen onírica, psicodélica y surrealista. En 2018, las artistas visuales Pinar Demirdag y Viola Renate, creadoras de la marca Pinar&Viola, realizaron una residencia artística en el Google Arts & Culture Lab de París, donde pudieron apreciar las similitudes de sus diseños con las imágenes generadas por «Deep Dream». Durante su estancia trabajaron con Mordvintsevel en el proyecto «Infinite Patterns», un sistema que permitió a las artistas alimentar a la red neuronal con imágenes reales seleccionadas por ellas y transformarlas en nuevas imágenes oníricas. Después, procesaron las imágenes mediante un editor fotográfico para crear los diseños finales (Google Arts & Culture, 2019). Esta práctica sitúa su trabajo entre el arte, el diseño y la moda, utilizando la inteligencia artificial para lanzar colecciones anuales con el propósito de mostrar el futuro de las imágenes.

2.2. Redes Neuronales Generativas (Generative Neural Networks, GNN)

Bajo esta categoría se engloban las redes neuronales que sintetizan y generan nueva información a partir de un conjunto de datos existente. Los modelos más populares son las Redes Generativas Antagónicas (Generative Adversarial Networks, GAN) y los Codificadores Automáticos Variacionales (Variational Autoencoders, VAE). Ambos modelos son redes neuronales generativas que se utilizan para crear imágenes a partir de datos de entrada aleatorios. Sin embargo, el más aplicado actualmente quizá sea la Red Generativa Antagónica. Este sistema tiene dos componentes: el generador y el discriminador. El generador crea una imagen supuestamente original y el discriminador comprueba si lo creado por el generador es realmente original, contrastándolo con un gran banco de datos de imágenes. Ambos componentes dialogan entre sí hasta que el resultado final es satisfactorio. En 2022 se publicó una variación de este sistema que permite generar imágenes originales a partir del texto escrito por una persona en una frase descriptiva, denominada instrucción o prompt (Dehouche y Dehouche, 2023).

Las Redes Generativas Antagónicas se están utilizado para generar imágenes de alta resolución y de gran calidad, como muestran los trabajos del Laboratorio de Arte e Inteligencia Artificial de la Universidad de Rutgers (Nueva Jersey, EEUU). En 2017, los profesionales de este Laboratorio diseñaron AICAN, una red generativa entrenada con 80 000 imágenes de obras de arte occidentales creadas en los últimos cinco siglos. Con esta información, el sistema aprende los estilos y las técnicas de sus predecesores humanos para generar de forma autónoma imágenes innovadoras propias. Además, es capaz de titular sus trabajos con textos coherentes relacionados con la imagen. Las obras generadas por AICAN han sido expuestas en numerosas galerías de arte internacionales bajo la denominación «Colección AICAN».1 La primera obra de esta colección, «St. George Killing the Dragon»,2 salió a la venta en 2017. Se subastó en Nueva York por 16 000 dólares, una ganancia que se ha destinado a la continuidad de la investigación en el Laboratorio de Arte e Inteligencia Artificial. Según su director, Ahmed Elgammal, este proyecto cuestiona el papel de la autoría artística, el concepto de creatividad y el significado del arte generado por ordenador en la era de la inteligencia artificial (Elgammal, 2018).

2.3. Redes Neuronales Recurrentes (Recurrent Neural Networks, RNN)

Son redes con una memoria interna que les permite recordar la información de entradas anteriores y utilizarla en el procesamiento de la nueva entrada. Aunque habitualmente se utilizan para el procesamiento del lenguaje natural y la traducción automática, los últimos desarrollos han permitido su aplicación a la creación de imágenes. En el proyecto «Grammar#1», el artista italiano Antonio Daniele3 generó 300 dibujos a través de una técnica automática desarrollada por él. Posteriormente, usó estos dibujos para entrenar a la Red Neuronal Recurrente SketchRNN. A partir de este aprendizaje, la red pudo generar un nuevo grupo de dibujos que fueron expuestos en una instalación interactiva junto a otros dibujos creados por el ser humano. La experiencia fue diseñada como una prueba de Turing, donde el espectador debía responder a la pregunta: «¿Qué es humano?».4 El proyecto reflexiona sobre el signo artístico, el diálogo entre el ser humano y la inteligencia artificial, y el papel del arte en la sociedad contemporánea (ReHumanism, 2019).

2.4. Transferencia de Estilo Neuronal (Neural Style Transfer, NST)

La transferencia de estilo neuronal utiliza una red neuronal para combinar la estética de una imagen de referencia con el contenido de una imagen de entrada. El modelo aprende las características de la referencia y las aplica a la imagen de entrada, obteniendo como resultado su transformación estética. Es una técnica desarrollada en 2015 por investigadores de la Universidad de Tubingen (Alemania) que ha sido utilizada recientemente en la reconstrucción de obras de arte.

El óleo sobre lienzo «El viejo guitarrista»5 de Picasso está expuesto en el Instituto de Arte de Chicago. Durante años, profesionales de arte han percibido algo que parecía ser el rostro de una mujer debajo de la pintura. Para estudiarlo, utilizaron rayos X y luz infrarroja, descubriendo que debajo de la superficie se encontraba el trazo de una mujer desnuda, sentada y con el brazo izquierdo extendido. Se trataba de una pintura desconocida del Periodo Azul picassiano, sobre la que el artista había pintado «El viejo guitarrista». La fotografía obtenida a partir de los rayos X se editó manualmente y se usó como imagen de entrada en una Red de Transferencia de Estilo Neuronal que había sido entrenada para transformar cualquier imagen en otra con el estilo del Período Azul de Picasso. El resultado mostró la pintura como su autor la habría concebido.6 Aunque no es posible conocer si Picasso la realizó exactamente así, el método permitió reconstruir una obra de arte perdida con resultados que contribuyen a profundizar en el proceso creativo del artista (Bourached y Cann, 2019).

La misma técnica puede ser utilizada para reconstruir una fotografía dañada dentro de la obra fotográfica de un autor, o para mejorar los gráficos de un videojuego antiguo, convirtiéndose en un procedimiento con gran proyección tanto para la creación como para la regeneración de obras de arte.

3. Sistemas de inteligencia artificial para la generación de imágenes con apariencia fotográfica

Los modelos de aprendizaje profundo son algunos de los sistemas de inteligencia artificial más utilizados para crear imágenes. La elección del algoritmo apropiado y, en consecuencia, la selección de la aplicación informática que lo tiene implementado, dependerá del tipo de imagen que se desee generar. En la actualidad existen muchos programas informáticos y portales web que permiten crear imágenes con apariencia de fotografía usando distintos tipos de redes neuronales. A continuación, se describen algunos de los más utilizados para este propósito.

3.1. StyleGAN

Esta Red Generativa Antagónica fue creada en 2018 por la empresa NVIDIA Corporation (Santa Clara, California, EEUU).7 Se utiliza principalmente para la generación automática de rostros humanos. Para ello, el sistema usa 70 000 fotografías publicadas por sus respectivos autores en la red social Flickr bajo licencia Creative Commons. Transcurrido el proceso de entrenamiento y aprendizaje, el sistema es capaz de generar retratos hiperrealistas de caras humanas que no existen en la realidad (Figura 1).

Figura 1. Imagen generada con StyleGAN bajo licencia Creative Commons BY-NC 4.0. Fuente: NVlabs. (2019). StyleGAN representative images. NVIDIA.

3.2. DALL-E

La compañía OpenAI lanzó en 2021 el sistema de inteligencia artificial DALL-E, cuya pronunciación en inglés rinde homenaje al artista español Salvador Dalí y a la película de animación futurista WALL-E. Este sistema crea imágenes realistas y originales a partir de una descripción de texto que puede ser escrita en múltiples idiomas. La redacción del texto puede combinar conceptos, atributos y estilos, consiguiendo una imagen más precisa cuanto más detallada sea la descripción textual (Dehouche y Dehouche, 2023). En 2022, la nueva versión pasó a denominarse DALL-E 2.8

3.3. Stable Diffusion

En 2022, la empresa Stability AI hizo público el sistema de inteligencia artificial Stable Diffusion.9 Este sistema es capaz de crear imágenes a partir de una descripción de texto escrito, de forma similar a DALL-E 2 (Dehouche y Dehouche, 2023). Sin embargo, tanto su arquitectura como su modelo de desarrollo son diferentes, siendo uno de los sistemas de código abierto más extendidos.

El entrenamiento de Stable Diffusion se realizó con 5 000 millones de pares categóricos «imagen-título» extraídos de LAION-5B, una base de datos de libre acceso. Las imágenes de LAION-5B proceden de múltiples dominios, entre los que se encuentran las plataformas Pinterest, Flickr, WordPress, DeviantArt y Wikimedia Commons. Stability AI proporciona la plataforma DreamStudio que, tanto en su versión limitada gratuita como en su versión de pago, permite crear imágenes a partir de texto (Figura 2). Además, estas imágenes se pueden integrar en Photoshop y otras aplicaciones como parte del flujo de trabajo creativo. La compañía también ha publicado en web la versión demo gratuita Stable Diffusion 2.1, con una interfaz mucho más sencilla y fácil de utilizar.10

3.4. Midjourney

El laboratorio de investigación independiente Midjourney publicó en 2022 el sistema de inteligencia artificial del mismo nombre, con el propósito de generar imágenes a partir de texto.11 Actualmente, solo se puede utilizar a través del servicio de mensajería instantánea Discord, donde Midjourney tiene un canal oficial para interactuar con él. Funciona a través de comandos, seguidos del texto descriptivo de la imagen que se desea generar. Al ser una comunidad abierta, las imágenes creadas son públicas y se permite que otras personas las reutilicen para mezclar con más imágenes. La plataforma de la comunidad de usuarios, denominada Community Showcase, expone las obras publicadas por cada artista en tiempo real. En ella, las imágenes generadas mediante Midjourney muestran una calidad técnica y un realismo extraordinarios.12

Figura 2. Imagen generada con Stable Diffusion a partir del siguiente texto: «Realistic photography, high-rise residential building with a unique form and facade, featuring terraces and stunning views, minimalist, high-end, architectural design» («Fotografía realista, edificio residencial de gran altura con una forma y fachada únicas, con terrazas y vistas impresionantes, diseño arquitectónico minimalista y de alta gama»). Fuente: elaboración propia.

4. La inagrafía como procedimiento diferenciado de la fotografía

La palabra fotografía proviene de la unión de dos vocablos griegos: «phōto», asociado a phôs, que alude a la luz, y «graphía», asociado al verbo gráphein, que significa escribir o grabar. Uniendo ambos términos, la fotografía alude a la imagen obtenida a través de la luz. Formalmente, la Real Academia Española define «fotografía» mediante dos acepciones que hacen referencia tanto a la técnica como al producto resultante. En su primera acepción, «fotografía» es aquel «procedimiento o técnica que permite obtener imágenes fijas de la realidad mediante la acción de la luz sobre una superficie sensible o sobre un sensor». Como segunda acepción, es la «imagen obtenida por medio de la fotografía».

Durante el siglo XIX, la luz actuaba sobre una superficie sensible y la imagen se obtenía mediante procesos químicos, constituyendo lo que se denomina fotografía química. En el siglo XX, el desarrollo tecnológico permitió que la luz fuera capturada por un sensor electrónico compuesto por píxeles fotosensibles, apareciendo la fotografía digital. En la actualidad, el avance de la ingeniería informática y de la tecnología ha permitido crear algoritmos inteligentes capaces de generar imágenes hiperrealistas a partir de información exclusivamente digital (Fontcuberta, 2022). Aunque estas imágenes parecen fotografías no lo son, ya que la luz no ha intervenido en su creación. Por este motivo, es necesario incorporar nuevos términos lingüísticos que reflejen tanto la técnica generativa como la estética de las imágenes resultantes.

Por extensión del vocablo original, comienzan a usarse los términos «fotografía algorítmica» o «fotografía sintética» para hacer referencia a una imagen obtenida mediante un sistema de inteligencia artificial que reproduce la composición y la apariencia de una fotografía sin que realmente lo sea. Sin embargo, existen objeciones al uso de los términos «fotografía», «algorítmica» y «sintética» para aludir a este tipo de imágenes.

En primer lugar, puesto que la luz no interviene en el proceso de generar una imagen mediante inteligencia artificial, el término «fotografía» es inadecuado para este contexto. Su uso genera confusión, ya que pretende clasificar como fotografía a un tipo de imagen que no ha sido producida mediante técnicas fotográficas.

Por otra parte, los términos «imagen algorítmica» y «algorista» están bien establecidos desde la conferencia anual SIGGRAPH (Special Interest Group on Computer Graphics and Interactive Techniques) de 1995, en la que Jean Pierre Hébert, Roman Verostko y Ken Musgrave fundaron la identidad algorista (Verostko, 1998). El arte algorítmico es anterior a los sistemas de inteligencia artificial, posee un método propio, define una estética característica y persigue objetivos artísticos particulares. Por este motivo, clasificar como imagen algorítmica a toda imagen generada por un sistema de inteligencia artificial sería establecer una fusión estética que, si bien podría darse en el futuro, aún no ha transcurrido el tiempo suficiente para poder declarar esta confluencia o similitud.

Por último, el diccionario de la lengua española define «sintético, ca» como «perteneciente o relativo a la síntesis», o bien «que procede componiendo, o que pasa de las partes al todo». Bajo estas acepciones, el diseño gráfico ya denomina «imagen sintética» a la obtenida mediante la unión de varias imágenes que representan determinados conceptos y generan una síntesis visual que favorece la comunicación de un mensaje. En este sentido, una imagen generada por un sistema de inteligencia artificial no siempre es sintética, ya que el proceso generativo es diferente y mucho más complejo que la combinación de imágenes. Desde otra perspectiva, Xavier Berenguer (1991) contrapone las «imágenes naturales», creadas a través de la pintura y la fotografía, a las «imágenes sintéticas», generadas mediante ordenador. Sin embargo, estas últimas se circunscriben a la infografía, con un marcado código visual y un lenguaje icónico dirigido a un público que lo debe interpretar. La creación de este tipo de imágenes requiere de consciencia y reflexividad, atributos humanos que, actualmente, no posee un sistema de inteligencia artificial. Para solventar el problema terminológico, se podría ampliar el concepto «imagen sintética» a toda imagen generada por tecnología informática, ya sea mediante software específico, algoritmos, inteligencia artificial, realidad virtual o cualquier nueva tecnología más allá de la infografía y el diseño gráfico (Adsuara, 2021). Se obtendría entonces una clase tan amplia que, en la era de la sociedad digital, cualquier imagen podría ser clasificada como sintética, independientemente del procedimiento computacional utilizado para su elaboración; también las imágenes fotográficas generadas con cámaras digitales o teléfonos móviles de última generación podrían tener cierto grado de sintéticas, ya que incorporan algoritmos inteligentes para el procesamiento de la imagen que reinterpretan los elementos fotografiados (Manovich, 2019; Peco, 2019). En una sociedad cada vez más tecnológica, quizá el adjetivo sintético comience a perder valor como diferenciador de lo natural o lo real, cuyos significados que se diluyen en un entorno virtual.

Los nuevos procedimientos tecnológicos requieren nuevas palabras y nuevos significados. Puesto que los términos tradicionales no definen de forma precisa las imágenes generadas por sistemas de inteligencia artificial, este trabajo propone la creación del siguiente neologismo:

inagrafía

De in-teligencia a-rtificial y -grafía.

1. f. Procedimiento o técnica que permite obtener imágenes fijas mediante un sistema de inteligencia artificial.

2. f. Imagen obtenida por medio de la inagrafía.

Una inagrafía puede parecerse a una fotografía o a una pintura, e incluso ser indistinguible de ellas. Sin embargo, no es una fotografía ni una pintura. El neologismo expresa la diferencia entre los procedimientos generativos utilizados, aportando una información relevante para el análisis de la imagen resultante. Si el contexto lo requiere, se puede distinguir entre inagrafía con apariencia fotográfica e inagrafía con apariencia pictórica. En el contexto de este estudio, el término «inagrafía» hará referencia a aquellas que poseen apariencia fotográfica.

5. La mera inagrafía y la obra inagráfica

Una de las características de la sociedad contemporánea es el uso intensivo de las tecnologías de la información y la comunicación. Entre ellas, la incorporación de la cámara fotográfica en los teléfonos móviles inteligentes y el desarrollo de Internet han sido los avances que más han contribuido a la realización masiva de fotografías digitales y a su difusión inmediata a cualquier punto geográfico del planeta. Ahora, la popularización de los sistemas de inteligencia artificial ha incorporado una nueva forma de creación de imágenes, que se añade a las anteriores a través de un trío de medios generativos: fotografía química, fotografía digital e inagrafía. Como consecuencia, el consumo compulsivo de imágenes ha adquirido una dimensión extraordinaria en la sociedad de la información globalizada, donde el uso de las redes sociales y de los sistemas de mensajería instantánea han fomentado una saturación visual sin precedentes. En este contexto, es necesario diferenciar entre la mera fotografía y la obra fotográfica (Real Decreto Legislativo 1/1996), cuya extrapolación al ámbito de la inteligencia artificial lleva a la distinción entre la mera inagrafía y la obra inagráfica.

La realización de una fotografía o de una inagrafía puede hacerla cualquier persona mediante el uso de una cámara fotográfica o de un sistema de inteligencia artificial. El resultado es una imagen que, si bien puede tener un nivel técnico excelente, sólo muestra una escena en un espacio y en un instante determinado que adolece de intención o de significado artístico. En este caso, la imagen es una mera fotografía o mera inagrafía.

La creación fotográfica y la creación inagráfica, en cambio, se basan en la historia, el pensamiento y la teoría del arte para generar imágenes estéticas originales que expresan ideas o comunican conceptos. El resultado es una imagen o una serie de imágenes que reflejan la identidad del artista y es fruto de un trabajo complejo basado en la creatividad, la destreza, la habilidad y el conocimiento. Las imágenes construidas de esta forma constituyen una obra fotográfica o una obra inagráfica, cuyo significado cobrará pleno sentido dentro del contexto cultural y social en el que fue creada.

6. Referentes artísticos de la obra inagráfica

A medida que los sistemas de inteligencia artificial se popularizan, la creación de inagrafías está cada vez más presente en el arte actual. Entre los artistas inagráficos, Mario Klingemann, Trevor Paglen, Refik Anadol y Pilar Rosado son referentes en la estética de la inteligencia artificial, motivo por el que su trabajo será analizado en los siguientes apartados.

6.1. Mario Klingemann

El artista alemán Mario Klingemann, 1970, es pionero en el uso de las redes neuronales artificiales para la creación artística.13 Sus obras exploran las capacidades de la inteligencia artificial para emular el proceso de creatividad y la percepción humana del arte. A través de ellas, cuestiona tanto los medios como las estéticas artísticas tradicionales, ofreciendo una visión particular del futuro del arte contemporáneo. En su opinión, los rápidos avances de la inteligencia artificial y del aprendizaje profundo permitirán que las máquinas creen obras de arte más interesantes que las obras artísticas humanas en un futuro muy próximo.

Entre sus trabajos destaca «Memories of Passersby I», una instalación compuesta por un arcón de madera que contiene un sistema de inteligencia artificial conectado a dos pantallas que cuelgan de la pared.14 El sistema es un algoritmo de aprendizaje profundo basado en Redes Generativas Antagónicas que ha sido entrenado para crear imágenes propias partiendo de las referencias estéticas de miles de retratos realizados por pintores occidentales entre los siglos XVII y XIX. De esta forma, el sistema genera un flujo continuo de rostros masculinos y femeninos en tiempo real que no se graban ni se repiten, de manera que cada imagen es una obra única producida de forma autónoma por la inteligencia artificial. A diferencia de otras obras de arte generativo, el sistema creado por Klingemann no combina imágenes existentes en una base de datos, sino que usa el entrenamiento y el aprendizaje recibido para crear pixel a pixel nuevos retratos. El resultado son imágenes de caras extrañas e inquietantes, cercanas al surrealismo, que muestran la interpretación del rostro humano por un ente no humano. La reflexión sobre esta idea mientras se contemplan los retratos generados en tiempo real produce una sensación hipnótica y perturbadora, similar a la belleza convulsiva definida en «Nadja» por el teórico surrealista André Breton (2006).

En 2019, «Memories of Passersby I» se subastó en Sotheby’s15 y actualmente es considerada la primera inteligencia artificial autónoma subastada, marcando un hito en el ámbito de este arte emergente. Además, la adaptación de la red neuronal generativa permitió la creación de otras obras, como «Interstitial Space». En esta instalación interactiva, la imagen generada por la Red Generativa Antagónica se proyecta en una pared. Después, mediante una cámara, el sistema recibe en tiempo real la información de su propia proyección e identifica los rasgos faciales que reconoce en ella. La interpretación de estas características permite al sistema crear una nueva imagen, que vuelve a convertirse en información para la siguiente creación. El espectador puede modificar la imagen resultante cuando se interpone entre la cámara y la proyección, entrando a formar parte del ciclo de retroalimentación del sistema (Art AI Festival, 2019).

La exploración del retrato generado por inteligencia artificial es un tema recurrente en la obra de Klingemann. En «Uncanny Mirror», el espectador se sienta frente a un espejo mientras una cámara incorpora sus rasgos faciales a una Red Generativa Antagónica que ha sido entrenada previamente con miles de rostros humanos. A partir de esta información, el sistema genera un nuevo rostro que va cambiando gradualmente su apariencia hacia el promedio de la información facial aportada por los visitantes (Cyland, 2018). Posteriormente, Klingemann creó «Circuit Training», una gran instalación interactiva en la que el sistema de inteligencia artificial aprende sobre la fisonomía humana a través de la información sensorial que aporta la audiencia dentro del espacio expositivo. Esta instalación consta de tres módulos: adquisición, curaduría y creación. Durante la adquisición, el sistema recopila datos biométricos de cada visitante mediante una cámara situada en un estudio fotográfico. La información se incorpora a una red neuronal artificial y el resultado del análisis de datos se muestra en tiempo real al público que espera fuera del estudio. En la curaduría, cada participante revisa en una pantalla las imágenes generadas por el sistema y decide cuáles prefiere, interviniendo así en su proceso de entrenamiento y aprendizaje. De esta forma, el sistema aprende las preferencias de su audiencia para proyectar en el módulo de creación los retratos que considera más interesantes para el público asistente. Durante la presentación, observará a la audiencia y medirá la atención que recibe a través de cámaras infrarrojas con el fin de optimizar su proceso de aprendizaje (Onkaos, 2019).

El reconocimiento de las obras de Klingemann a través de premios internacionales, junto a sus exposiciones en galerías y centros de arte de reconocido prestigio, lo convierten en un referente del arte inagráfico.

6.2. Trevor Paglen

La creación de imágenes, compaginada con la ingeniería y la escultura, hacen de Trevor Paglen (Maryland, Estados Unidos, 1974) un artista multidisciplinar con amplia presencia en exposiciones internacionales. En 2014, su labor fotográfica en la película documental «Citizenfour» despertó su interés por la virtualidad y la inteligencia artificial, desarrollando trabajos posteriores que combinan ambos aspectos para generar obras artísticas con una visión crítica. En ellas investiga cómo la tecnología digital transforma la imagen, y cuestiona la forma en la que los sistemas de inteligencia artificial aprenden. Mientras que parte del debate actual está centrado en si una red neuronal artificial imita el cerebro humano, Paglen no visualiza estos sistemas desde el punto de vista del aprendizaje o del conocimiento, sino desde el punto de vista del poder: ¿para qué están diseñados estos sistemas?, ¿quién se beneficia de ellos?, ¿a quién perjudican? En su sitio web muestra más de cuarenta proyectos artísticos en los que la información digital y la inteligencia artificial constituyen los pilares para una crítica social, política y económica de la sociedad contemporánea.16

Desde esta premisa, el proyecto «Training Humans», concebido en 2019 junto a la investigadora Kate Crawford, explora cómo los sistemas de inteligencia artificial utilizan grandes cantidades de fotografías reales para interpretar, representar, codificar, etiquetar y clasificar a los seres humanos. A medida que este proceso se hace más complejo, la clasificación se convierte en una muestra de juicios morales automatizados. Ver las etiquetas que el sistema asigna a los retratos de las personas hace reflexionar sobre los prejuicios programados en toda inteligencia artificial y sobre quién puede beneficiarse de estos sistemas, con una evidente asimetría de poder entre clasificador y clasificado. Por ello, «Training Humans» está ideado como una «formación para humanos» con el propósito de conocer cómo nos ven y cómo nos clasifican los sistemas inteligentes. Esta es una crítica conceptual, desde la perspectiva del arte, similar a la que llevó a cabo la matemática Cathy O’Neil desde el punto de vista tecnológico en el ensayo «Armas de destrucción matemática: cómo el Big Data aumenta la desigualdad y amenaza la democracia» (O’Neil, 2017).

Gran parte de los proyectos artísticos de Paglen están orientados a la estimulación de sistemas de inteligencia artificial para que generen imágenes nuevas y originales relacionadas con un tema, partiendo de la información que aportaron las fotografías reales de esa misma temática. En 2017, el algoritmo utilizado en «Fanon» generó la huella facial del filósofo y escritor Frantz Fanon, mostrando los rasgos que lo distinguen de todos los demás rostros humanos. Para lograrlo, el sistema inspecciona una cantidad ingente de fotografías reales de Fanon, las superpone y produce una imagen promedio. A continuación, elabora una imagen promedio de múltiples retratos de otras personas. Eliminando las características de esta imagen colectiva de la imagen promedio de Fanon, obtiene la huella facial buscada.17 Esta huella facial es una abstracción matemática que permite identificar la cara de Fanon en cualquier fotografía futura, además de constituir la base para generar un nuevo retrato que el ser humano reconocerá como el rostro del escritor. Puesto que esta nueva imagen es el retrato de todos los retratos de Fanon, podría considerarse como un meta-retrato humano elaborado por un sistema no humano.

Como continuación de esta línea de trabajo, Paglen entrenó la Red Neuronal Generativa con fotografías masivas de una misma tipología o corpus para que fuera capaz de reconocer las características de esos objetos, animales o personas. Seguidamente, pide al sistema que cree una imagen original relacionada con el corpus de entrenamiento. De esta forma, en 2017 surgió «Hallucinations», un proyecto visual que muestra imágenes absolutamente inexistentes en la realidad.18 Las imágenes generadas a partir del corpus fotográfico humano permiten reflexionar sobre cómo nos representa un sistema de inteligencia artificial, además de ser un medio de exploración del carácter abstracto y surrealista de estas inagrafías.

6.3. Refik Anadol

El artista turco Refik Anadol, 1985, es pionero en la estética de la inteligencia artificial. Actualmente dirige Refik Anadol Studio y RAS LAB en Los Ángeles (California, EEUU), instituciones dedicadas a la investigación y al desarrollo de sistemas inteligentes que permitan crear una narrativa conceptual a partir de información digital masiva. El equipo está formado por artistas visuales, científicos y arquitectos de diferentes países que trabajan en colaboración con Microsoft, Google, NVIDIA, Panasonic, NASA/JPL, Intel, IBM, Siemens, Epson, MIT y diferentes Universidades con el objetivo de aplicar el conocimiento y la tecnología más reciente al desarrollo de proyectos artísticos. En su web oficial se pueden ver las obras site-specific del autor, con resultados asombrosos desde el punto de vista de la creación de imágenes asistida por inteligencia artificial.19

En 2023 creó «Artificial Realities: Coral». Esta obra está inspirada en los arrecifes de coral, cuya existencia se encuentra amenazada por el deterioro del océano y los efectos del cambio climático. El proyecto se desarrolló en dos fases, usando en cada una de ellas una Red Neuronal Generativa diferente para obtener inagrafías de corales. En la primera fase, Anadol utilizó alrededor de cien millones de fotografías reales de corales para entrenar a la red neuronal StyleGAN2-ADA en el reconocimiento de este tipo de imágenes; tras el entrenamiento, el sistema fue capaz de crear por sí mismo nuevas imágenes de coral partiendo del conocimiento adquirido. En la segunda fase, entrenó a la red neuronal Stable Diffusion con cinco mil millones de fotografías reales de corales; este aprendizaje permitió al sistema crear inagrafías de corales a partir de las instrucciones escritas por un humano, en cuya redacción describe minuciosamente la imagen deseada. Posteriormente, las imágenes seleccionadas fueron convertidas a resolución 6k mediante la red neuronal ESRGAN (Enhanced Super-Resolution Generative Adversarial Networks).

La impresión 3D de las nuevas imágenes crearon esculturas de corales artificiales que ayudarán a restaurar los ecosistemas de los océanos. Esta obra de arte monumental puede considerarse site-specific y su objetivo es concienciar sobre la necesidad de preservar la sostenibilidad de los corales. Mediante su exposición en el Foro Económico Mundial 2023,20 Anadol pretendió llamar la atención sobre un problema ambiental real a través de un entorno artificial.

Desde una cosmovisión posthumanista, Anadol explora lo que significa ser humano en la era de la inteligencia artificial, donde la persona se encuentra inmersa en una masa de datos y los sistemas inteligentes toman decisiones cotidianas. En su concepción, la armonía entre la máquina y el ser humano es necesaria para crear sociedades más sostenibles, con resultados que, además de bellos y poéticos, pueden inspirar cambios positivos en la humanidad. Sus proyectos han sido galardonados con numerosos premios internacionales, siendo uno de los artistas más reconocidos en su ámbito.

6.4. Pilar Rosado

La artista española Pilar Rosado, 1965, compagina su carrera artística con la investigación y la docencia en la Facultad de Bellas Artes de la Universidad de Barcelona. En sus proyectos explora la relación entre la inteligencia artificial y los procesos creativos, especialmente aquellos que tratan la memoria visual colectiva. Sus trabajos de investigación han sido publicados en numerosas revistas académicas y sus obras artísticas han sido expuestas en diversas exposiciones de ámbito nacional e internacional.21

Además de realizar obras individuales, la unión del conocimiento interdisciplinar ha favorecido el desarrollo de interesantes proyectos en el ámbito de la inagrafía. Es el caso del dúo formado con Joan Fontcuberta, artista especializado en fotografía y promotor del manifiesto postfotográfíco (Fontcuberta, 2011). Ambos han contribuido a la exploración de la inteligencia artificial como medio para la creación de imágenes y al estudio del proceso creativo bajo una cosmovisión posthumanista.

En este ámbito de trabajo, «Prosopagnosia» fue el primer proyecto conjunto de ambos artistas (Fontcuberta y Rosado, 2019). El título hace referencia a una enfermedad que impide reconocer las caras de otras personas, e incluso el propio rostro, constituyendo uno de los trastornos cognitivos que se ha hecho popular después de que el actor estadounidense Brad Pitt declarara padecerlo (De Tommasi, 2022). Las Redes Generativas Antagónicas DCGAN y StyleGAN fueron entrenadas con los retratos de celebridades de principios del siglo XX pertenecientes al archivo personal del periodista Joaquín Alonso Bonet (Gijón, 1889-1975). La finalización del proceso de aprendizaje permitió que los sistemas generaran inagrafías de celebridades que nunca existieron, con estética de la época. El proyecto reflexiona sobre la ontología de la imagen y la creación inagráfica, donde el resultado ya no es un producto de la imaginación humana sino de la generación maquinal. La obra fue galardonada en 2020 con el Premio ARCO-BEEP de Arte Electrónico en ARCOmadrid.

Posteriormente, en el proyecto «Beautiful Agony», Rosado y Fontcuberta entrenaron a la Red Generativa Antagónica StyleGAN para reconocer los rasgos faciales que muestran las personas cuando tienen un orgasmo real. El sistema aprendió a partir de una ingente cantidad de fotografías procedentes del portal web Beautiful Agony, cuyos usuarios suben los retratos de sus expresiones orgásmicas de forma voluntaria y accesible para cualquier persona que visite la web. Una vez entrenado, el sistema fue capaz de crear imágenes de personas inexistentes experimentando un orgasmo. Ambos artistas aplicaron el mismo método para modificar imágenes de celebridades masculinas que han estado involucradas en escándalos sexuales, de manera que el retrato real se transforma en un retrato con rasgos faciales orgásmicos. El propósito del proyecto fue generar conciencia social sobre el abuso de poder y la violencia sexista en una sociedad patriarcal (Rosado et al., 2021).

La expresión francesa «la petite mort» hace referencia a un estado físico en el que las sensaciones de orgasmo y muerte son casi indistinguibles. Bajo esta premisa, el proyecto «La Petite Mort», 2021, entrenó a la red neuronal StyleGAN con cientos de retratos de personas fallecidas por causas violentas que aparecieron en diarios mexicanos y fotografías de personas durante un orgasmo. Tras el aprendizaje, el sistema generó imágenes de personas inexistentes cuyas expresiones muestran el espacio compartido entre el placer y la muerte.22 Este proyecto, junto con los anteriores, culmina una profunda investigación sobre la postfotografía, la reproducción cibernética y el cambio que está produciendo la inteligencia artificial en nuestro modo de mirar y de vivir.

7. Reflexiones en torno a la creación inagráfica

El debate sobre el avance de la inteligencia artificial, sus ventajas, sus inconvenientes y sus repercusiones en la vida del ser humano está cada vez más presente en la sociedad contemporánea. En 2022, La Comisión Europea hizo pública una Propuesta de Directiva con el objetivo de regular los riesgos asociados al uso de la inteligencia artificial (Proposal Directive 2022/0303). En España, la Ley 15/2022 para la igualdad de trato y la no discriminación establece en su Artículo 23 que «Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido». Actualmente, el debate sobre el uso de la inteligencia artificial también está presente en todas las manifestaciones artísticas, incluyendo la creación de imágenes. Los siguientes apartados reflexionan sobre algunas de las cuestiones más recurrentes en el ámbito de la creación inagráfica, exponiendo diferentes puntos de vista que contribuyen al debate colectivo.

7.1. El carácter artístico

En su segunda acepción, el diccionario de la lengua española define «arte» como una «manifestación de la actividad humana mediante la cual se interpreta lo real o se plasma lo imaginado con recursos plásticos, lingüísticos o sonoros». Desde la perspectiva de la filosofía, Arthur Danto propone caracterizar el arte en lugar de definirlo, de manera que una obra de arte se caracterizaría por tres criterios esenciales: qué significa, cómo se materializa y cuál es la interpretación que le otorga la persona que la observa (Danto, 2020).

A pesar de los intentos, actualmente no existe una definición consensuada de arte, ni una conceptualización aproximada que haya sido aceptada universalmente. La desaparición de las grandes narrativas defendida por Jean-François Lyotard (2006), la ausencia de un referente artístico y la inexistencia de una jerarquía de valores que defina la relevancia de una obra, ha favorecido que sea el mercado quien legitime la obra de arte. En la actualidad, el juicio de valor predominante es el proporcionado por las instituciones, potenciando así un mercado capitalista que decide, en última instancia, qué es arte. Para Francis Fukuyama (2015), el consumo es la acción más valorada dentro del sistema capitalista contemporáneo. Este consumismo, trasladado al arte, parece ser el único valor plausible en una sociedad globalizada en la que no existe un criterio artístico homogéneo ni hegemónico, y donde la apreciación de una obra es diferente en cada contexto, tiempo y lugar.

Partiendo de esta concepción, las obras de Mario Klingemann, Trevor Paglen, Refik Anadol y Pilar Rosado, entre otros, han sido subastadas, premiadas y expuestas en prestigiosas galerías de arte. Sus creaciones son obras reconocidas tanto en el mercado del arte como en el ámbito artístico y académico. De la misma forma, otras creaciones inagráficas que se asemejan más a la pintura que a la fotografía han obtenido la aprobación del mercado del arte. Es el caso del colectivo francés Obvious, creadores de la imagen «Edmond de Belamy»23 que en 2018 fue subastada en Christie’s Nueva York por un valor de 432 500 dólares. La obra fue realizada mediante una Red Generativa Antagónica e impresa en un lienzo cuadrado de tamaño 70 x 70 cm. La firma que aparece en la esquina inferior derecha del cuadro es una de las ecuaciones matemáticas que forman parte de la red neuronal que generó la imagen. Esta simbología sugiere una cosmovisión posthumana del arte asistido por inteligencia artificial: la firma alfanumérica puede ser vista como una intención de humanizar a la máquina mediante la coexistencia de un acto humano, la firma, y un acto digital, la ecuación. La obra «Edmond de Belamy» ha sido la primera imagen creada con inteligencia artificial subastada en Christie’s. Junto a ella, imágenes similares forman la colección «La Famille De Belamy»,24 cuyos componentes han sido adquiridos por diferentes compradores y expuestos en acreditadas galerías de arte, museos y casas de subastas internacionales.

En 2022, el diseñador estadounidense Jason Allen obtuvo el primer premio en el certamen Colorado State Fair’s Fine Art Competition, categoría de Arte Digital, por la obra «Théâtre D’opéra Spatial» (Devillers, 2022). La imagen fue generada a través de Midjourney y procesada posteriormente con Photoshop. A pesar del reconocimiento artístico, la obra generó un intenso debate en torno a otra de las cuestiones clave en la creación de inagrafías: la autoría. Como en las imágenes del colectivo Obvious y del resto de artistas, la reflexión no se dirige ya a cuestionar el carácter artístico de la obra, sino a dilucidar quién es su legítimo autor: el artista, la inteligencia artificial o las personas que programaron la inteligencia artificial. Quizá esta modalidad de arte esté asistiendo a lo que Ronald Barthes (2021) denominó la muerte del autor, aunque ahora el protagonismo absoluto del artista no queda cuestionado exclusivamente por el papel que juega el espectador en la construcción del significado de la obra. También por el mérito que supuestamente podrían tener la inteligencia artificial y sus programadores.

Habiendo llegado a la conclusión de que la inagrafía puede ser arte, la siguiente cuestión del debate es quién creó la obra.

7.2. La autoría

Los sistemas de inteligencia artificial no son más que nuevas tecnologías al servicio del arte visual. Para ser útiles, el artista debe programarlas o escribir la descripción textual apropiada para generar aquella inagrafía que le permita comunicar un concepto, responder a preguntas filosóficas relevantes o explorar los límites de la estética contemporánea. El método artístico es laborioso y en ocasiones puede llevar varios meses de trabajo. Jason Allen empleó más de 80 horas solo para pensar las palabras clave que conformarían la frase dictada a Midjourney para el proyecto «Théâtre D’opéra Spatial» (Devillers, 2022, 5:28). Estas palabras englobaban términos artísticos y dramáticos, adjetivos específicos, sustantivos sobre la estética y la época, tipologías de escenas y otros elementos relacionados con el concepto que deseaba expresar. La labor puede encontrar una similitud con la dirección de arte de los proyectos visuales y es esencial tanto para la fase creativa como para la composición final de la imagen. Tras la selección definitiva de las palabras clave, Allen introdujo el mismo texto descriptivo en Midjourney entre 600 y 900 veces, permitiendo que el sistema generara una imagen en cada una de esas ocasiones. Después de un exhaustivo proceso de selección, eligió tres imágenes que editó en Photoshop para conseguir el resultado buscado.

Este largo proceso creativo lo corrobora la artista digital estadounidense Karen X. Cheng que, junto con el equipo editorial de la revista Cosmopolitan, crearon la primera portada de la historia diseñada mediante inteligencia artificial (LIU, 2022). La conceptualización de la idea y la generación de las palabras clave para DALL-E 2 fue un arduo trabajo de todo el equipo creativo, quien finalmente consensuó la siguiente descripción: «una toma de gran angular desde abajo de una mujer astronauta con un cuerpo femenino atlético caminando con arrogancia hacia la cámara en Marte en un universo infinito, arte digital synthwave».25 La introducción del texto en el sistema de inteligencia artificial de forma repetida generó múltiples inagrafías que fueron descartadas durante el proceso de edición hasta conseguir la definitiva (LIU, 2022).

Tanto Jason Allen como Karen X. Cheng utilizaron sistemas de inteligencia artificial entrenados y disponibles en el mercado. Sin embargo, otras veces es el propio artista quien entrena a la red neuronal para que genere la obra deseada. Es el caso de Trevor Paglen, quien mencionaba lo siguiente en una entrevista: «Realmente no pienso estas obras como coproducciones con las computadoras, porque las computadoras no tienen voluntad de acción. Es una enorme cantidad de trabajo de mi parte construir y entrenar sistemas, y luego revisar los cientos de miles de resultados que produjo para finalmente encontrar algunas imágenes que puedan ser obras de arte convincentes. De hecho, el proceso es muy cercano a cómo se hace un Sol LeWitt o cualquier otra obra de arte estructuralista que se haya hecho, más que a cualquier otra cosa» (Paglen, 2018).

A pesar del uso de una tecnología novedosa e incipiente, es el ser humano quien conceptualiza la obra, decide cómo utilizar el sistema de inteligencia artificial y supervisa cada etapa del proceso creativo hasta lograr el resultado deseado. Con motivo de la exposición de la obra «Memories of Passersby I», Mario Klingemann comentaba: «Si oyes a alguien tocando el piano, ¿dirías que el piano es el artista? No. Es lo mismo aquí. Sólo porque es un mecanismo complicado no cambian las reglas» (Onkaos, 2018, 0:02).

Desde este punto de vista, cuestionar la autoría del ser humano para otorgársela al algoritmo sería como cuestionar la autoría del fotógrafo para otorgársela a la cámara fotográfica. De la misma forma, plantear que el artista que trabaja con inteligencia artificial no es el autor de la obra, sino las personas que desarrollaron el algoritmo, sería como exponer que el fotógrafo no es el autor de la fotografía, sino la compañía que fabricó la cámara fotográfica. Ninguna tecnología actúa por sí misma, sin intervención o influencia del ser humano, y el caso de las redes neuronales artificiales no es diferente. Quizá el carácter antropomórfico que se atribuye a estos algoritmos, a veces con fines comerciales, esté contribuyendo a la magnificación de una tecnología que no es más que la evolución natural del proceso tecnológico que la fotografía y el arte visual vienen experimentando desde sus inicios. La forma en la que el ser humano habla de estos sistemas, así como el antropomorfismo desmesurado, podrían estar sesgando el debate sobre la autoría de las obras, poniendo de manifiesto la importancia de las palabras cuando se describen la tecnología utilizada y la labor realizada en cada fase del proceso creativo (Epstein et al., 2020).

Actualmente, tanto la Organización Mundial de Propiedad Intelectual (OMPI) como la Ley de Propiedad Intelectual española establecen que la autoría de una obra artística solo puede atribuirse a personas. Sin embargo, estas reflexiones legales, sociales y culturales están en un proceso de revisión continuo, impulsado por el vertiginoso avance de la tecnología (Guadamuz, 2017; Parlamento Europeo, 2023).

Más allá del debate sobre la autoría humana o no humana de la obra, existen otras implicaciones relacionadas con los derechos de imagen y los derechos de explotación de las fotografías reales utilizadas para el entrenamiento de los sistemas de inteligencia artificial. Aunque muchas de las bases de datos fotográficas provienen de imágenes de Internet con licencia Creative Commons, otras son fotografías de obras de arte catalogadas. El debate se extiende, por tanto, hacia la moralidad de la apropiación, una práctica frecuente en la postfotografía que trasciende el ámbito de la inteligencia artificial y se remonta a los inicios del siglo XX, época en la que Marcel Duchamp creó el ready-made con la finalidad de apropiarse de un objeto, cambiar su significado y elevarlo a la categoría de arte (Fontcuberta, 2017).

7.3. La falsedad

La liberación del código fuente de StyleGAN en 2019 permitió al ingeniero de software Philip Wang crear el primer sitio web basado en este algoritmo: «This Person Does Not Exist» («esta persona no existe»). Cada vez que se recargaba la página web, la pantalla mostraba el retrato de una persona que no existía en el mundo real. La imagen hiperrealista había sido generada por la inteligencia artificial.

Con este proyecto, Wang pretendía crear conciencia sobre la capacidad que posee esta tecnología para crear retratos de personas ficticias que podrían utilizarse de forma fraudulenta, contribuyendo a difundir deepfakes o falsificaciones profundas (Paez, 2019). El problema podría ser aún más grave cuando la técnica de la inagrafía se extiende a la creación de vídeos en los que una persona irreal da un discurso, o en los que se muestra a un personaje real diciendo algo que nunca dijo en un lugar en el que nunca estuvo (Suwajanakorn, 2018). Es evidente que el uso de la inteligencia artificial puede trascender el ámbito artístico para convertirse en un instrumento de manipulación y de control social. Sin embargo, es el ser humano quien decide en última instancia la finalidad de cada tecnología que, por sí misma, no posee valores ni moral (Ocaña, 2021).

La manipulación de la fotografía para generar imágenes que nunca existieron se remonta a los inicios de la fotografía, mucho antes de la aparición de la inteligencia artificial. La empresa Eastman Company creó en 1860 la fotocomposición «Abraham Lincoln» con la finalidad de mejorar la imagen del presidente estadounidense. Para ello, superpusieron su rostro al cuerpo de John Calhoun, adversario político de Lincoln. De la misma época data la obra «General Sherman posando con sus generales», fotocomposición realizada en 1865 por el fotógrafo estadounidense Mathew Brady en la que la imagen del general Francis P. Blair, que no asistió a la sesión, se agregó posteriormente a la fotografía original con el propósito de mostrar una imagen de unión y concordia en torno al General Sherman (Fotografía DSLR, 2015).

En el ámbito de la fotografía documental, nacida con el propósito de mostrar la realidad de la manera más fidedigna posible, la transformación de fotografías ha sido una práctica más habitual de lo que a priori cabría esperar. Edward Curtis, fotógrafo estadounidense, documentó la vida de los indígenas americanos desde México hasta Alaska entre los años 1907 y 1930. En ocasiones, modificó fotografías para eliminar objetos contemporáneos que aparecían en la imagen, fomentando así un estereotipo de la comunidad indígena basada en atuendos tradicionales y motivos que mostraban una idealización de su idiosincrasia (Gascoigne, 2021). Este procedimiento también se ha utilizado con fines políticos durante los siglos XX y XXI, ya sea para construir relatos, encumbrar a líderes o destruir carreras políticas. Son conocidas las eliminaciones de Nikolai Yezhov junto a Stalin en 1940, de Po Ku junto a Mao Tse-tung en 1936 y del rey George VI junto al ministro canadiense William Lyon en 1939; o el cambio de posición del presidente egipcio Hosni Murabak en una fotografía de 2010 para simular que encabezaba a un grupo de presidentes internacionales, en lugar de hacerlo Barack Obama (Martínez, 2019).

La política, la publicidad y la moda son algunos de los campos en los que más se ha utilizado la modificación de fotografías con diferentes propósitos, tanto en la era analógica como en la digital. En 2012, el Museo Metropolitano de Arte de Nueva York organizó la exposición «Faking It: Manipulated Photography Before Photoshop». En ella se expusieron más de 200 fotografías modificadas que se realizaron entre 1840 y 1990, década en la que aparecieron los programas informáticos de edición fotográfica que reemplazaron a las técnicas manuales de modificación. El resumen de la exposición mencionaba lo siguiente: «La necesidad de modificar las imágenes de la cámara es tan antigua como la propia fotografía - solo han cambiado los métodos. Casi todos los tipos de manipulación que hoy asociamos con la fotografía digital también formaban parte del repertorio pre-digital: alisar arrugas, adelgazar cinturas, agregar personas a una escena (o eliminarlas) - incluso fabricar eventos que nunca sucedieron».26

La fotografía, incluida la documental, muestra su fragilidad como prueba evidente de la realidad. Sin embargo, en el ámbito del arte, el artista interpreta lo real o plasma lo imaginado mediante un proceso creativo que no pretende alcanzar un reflejo exacto de la realidad. Es el caso de los proyectos «Sputnik»27 o «Deconstructing Osama»28, en los que Joan Fontcuberta muestra la posibilidad de modificar la historia y los relatos mediante la manipulación de la imagen. En este sentido, el uso de la fotografía o de la inagrafía no debe considerarse fraudulenta, sino un medio de expresividad artística. El uso de los sistemas de inteligencia artificial contribuirá entonces a la expresión de las reflexiones, pensamientos y emociones del artista, sin más pretensión que la de continuar creando arte a través de nuevas tecnologías.

7.4. La amenaza

El siglo XIX fue una época de grandes logros científicos y tecnológicos. Este conocimiento fue la base del nacimiento de la fotografía, cuyos inicios parten de los trabajos de tres autores: las heliografías de Joseph Nicéphore Niépce, generadas durante el primer cuarto del siglo XIX; el calotipo de William Henry Fox Talbot, desarrollado durante los años 30 del siglo XIX, y el daguerrotipo de Louis Daguerre, presentado públicamente en la Academia de las Ciencias de París en 1839. Este último evento permitió la extensión y la popularización de la fotografía a través del mundo. El reconocimiento de su utilidad técnica y su aplicabilidad para el retrato potenciaron su uso, a la vez que suscitó el recelo de otros artistas plásticos, especialmente pintores, que veían peligrar su oficio. Sin embargo, en lugar de generar rivalidad, fotografía y pintura encontraron sus propios espacios, potenciando un desarrollo creativo de gran repercusión artística (Bajac, 2015).

La llegada de los sistemas de inteligencia artificial en el siglo XXI ha supuesto una revolución tecnológica equiparable a la que supuso la invención de la fotografía en el siglo XIX. En este contexto, la artista británica Joanna Zylinska propone una nueva filosofía de la imagen con perspectiva posthumanista, en la que define la fotografía no humana como todas las formas de imágenes en las que el ser humano está ausente durante su creación (Zylinska, 2017). Esta filosofía se aleja de la cosmovisión antropocéntrica del arte visual, argumentando que todas las fotografías creadas por el ser humano han sido realizadas utilizando elementos no humanos, desde la cámara fotográfica hasta los algoritmos de edición digital. Estos aspectos no humanos condicionan la creatividad y la expresión artística humana, por lo que tendría sentido reconocer a la máquina como un ente que evoluciona junto al ser humano, más que en oposición a él (López de Mántaras, 2017; Miller, 2020; Zylinska, 2020).

Los sistemas de inteligencia artificial diseñados para la creación de inagrafías no harán que el artista humano desaparezca. La conceptualización y el diseño del proyecto seguirán siendo labores humanas, mientras que la nueva tecnología permitirá explorar recursos creativos diferentes, muchos de ellos aún por descubrir. Sin embargo, ha de ser el artista quien decida cuándo y cómo usar la inteligencia artificial en función de sus necesidades creativas. Desde este punto de vista, algunos profesionales del diseño gráfico, la moda y el arte de los videojuegos han visto, más que una amenaza, una oportunidad en el uso de la inagrafía. Esta es la visión del colectivo Obvious que, en colaboración con el equipo Nike by you, crearon unas zapatillas Nike exclusivas diseñadas por inteligencia artificial. Para lograrlo, recopilaron fotografías reales de los modelos Air Max 1, Air Max 90 y Air Max 97 de Nike. Con ellas, entrenaron a su Red Generativa Antagónica para que aprendiera a reconocer las características esenciales de la marca. Tras la fase de aprendizaje, el sistema generó varias imágenes de zapatillas inéditas, de las que el colectivo eligió la más representativa del concepto buscado. La edición fotográfica posterior permitió producir una edición limitada del nuevo modelo con el diseño cromático definitivo (Obvious, 2020).

En el arte de los videojuegos, la red neuronal StyleGAN ha hecho posible la generación de retratos humanos para diseñar avatares hiperrealistas. En esta línea de trabajo, la empresa estadounidense Generated Media29 no sólo ofrece rostros humanos irreales a las compañías. Sus últimas soluciones permiten obtener inagrafías de plano entero de personas que no existen, posibilitando que las agencias de moda y el comercio electrónico usen en sus diseños publicitarios modelos realistas, inexistentes y libres de derechos de imagen.

Los trabajos de Obvious y Generated Media se podrían ver como una evolución del diseño, del arte de los videojuegos y del arte visual. Sin embargo, también permite la reflexión sobre el uso de la inteligencia artificial para legitimar el capitalismo de plataformas, donde la ciudadanía coloca de forma gratuita en Internet tanto su información digital como sus fotografías y las compañías o los artistas las usan para entrenar sus sistemas de inteligencia artificial y obtener beneficio económico (Srnicek, 2018). Se trata de una reorganización del capitalismo del siglo XXI que rentabiliza la información digital, ya sean datos o imágenes, para fomentar la producción y el crecimiento económico en un mundo cada vez más virtual. En este sentido, quizá el arte contemporáneo basado en sistemas de inteligencia artificial esté contribuyendo, de manera consciente o inconsciente, a un nuevo capitalismo que encuentra en artistas, galerías y subastas de arte una nueva forma de expansión.

8. Epílogo

La inteligencia artificial está aportando una nueva forma de generar y visualizar imágenes. Los sistemas que transforman una fotografía real en otra diferente, o que generan una imagen a partir de una descripción textual, están accesibles para cualquier persona a través de aplicaciones y plataformas en línea. Las posibilidades son ilimitadas, pudiendo generar retratos, bodegones, paisajes o cualquier otra inagrafía. Sin embargo, para que la estética de la inteligencia artificial contribuya al arte, es necesario apartarla de la banalidad visual. Sin una cosmovisión que las contextualice, una conceptualización que las dote de significado y una filosofía que sustente el proceso creativo, estas imágenes no serían obras inagráficas sino meras inagrafías que sólo contribuirán a la saturación visual contemporánea y, como postulaba el filósofo Walter Benjamin, al desmoronamiento del aura de la obra de arte (Benjamin, 1989). Al igual que lo hicieron otros avances tecnológicos del pasado, la inteligencia artificial puede contribuir a la creación de imágenes, pero es el artista visual quien dota de significado a la imagen que crea, independientemente de la tecnología utilizada.

A pesar de que la creación artística debe generar una obra original, entendida como resultante de la inventiva del artista, ésta no se encuentra exenta de influencias. La persona que crea lo hace a partir de un conocimiento que ha sido inspirado por otros autores, maestros o mentores y ha sido modelado por un entorno cultural específico, de manera que nada de lo creado es completamente nuevo sino una modificación de lo existente. Partiendo de esta idea, el cineasta y escritor canadiense Kirby Ferguson postula que la influencia es un requisito imprescindible para crear: «si miras lo suficientemente cerca, cada obra contiene piezas de obras anteriores». Este pensamiento es la base de la remezcla («remix»), teoría promovida por Ferguson en la que la creatividad y la construcción de obras novedosas se basa en tres elementos: copiar, combinar y transformar (Ferguson, 2014). Esta trilogía ha formado parte de la creación fotográfica desde el inicio de la fotografía en el siglo XIX y continúan siendo sus pilares en la era de la postfotografía (Martínez-Sánchez, 2017). La premisa invita a reflexionar sobre la originalidad de los proyectos artísticos basados en sistemas de inteligencia artificial, ya sea desde el punto de vista tecnológico o desde la perspectiva conceptual.

En cuanto a la tecnología, las inteligencias artificiales son sistemas programados y entrenados por el ser humano para generar imágenes. El aprendizaje se realiza a partir de ingentes cantidades de fotografías reales que provienen del mundo conocido por el humano. Por este motivo, lo que el sistema de inteligencia artificial sea capaz de crear dependerá de la información digital que le proporcione el ser humano, que trasladará a la máquina tanto sus sesgos cognitivos como su procedimiento creativo basado en la remezcla. Quizá por ello, la máquina está limitada a generar imágenes que suelen estar fundamentadas en la copia de una estética artística humana, la combinación de la información digital que proviene de fotografías reales humanas o la transformación de los píxeles que forman una fotografía digital humana.

Desde el punto de vista conceptual, las obras artísticas basadas en inteligencia artificial abordan temas recurrentes que provienen de épocas anteriores al desarrollo de sistemas inteligentes, con resultados estéticos que a veces son similares. Aunque la tecnología es diferente, las obras de Mario Klingemann, Trevor Paglen y Pilar Rosado evocan el proyecto «Composites» de Nancy Burson, creado en los años 80 del siglo XX, en el que Burson combinaba diferentes retratos para obtener una nueva imagen de algo o alguien inexistente.30 También recuerdan al proyecto «The Age Machine», de la misma autora. La obra consistía en una consola interactiva creada en 1990 que escaneaba la cara de cualquier persona sentada frente a ella, delineaba los puntos clave de sus características faciales y estimaba su edad actual. A continuación, generaba un retrato futurista que mostraba cómo sería el rostro de la persona veinticinco años después. Estos hechos evidencian que, aunque el avance de la tecnología contribuye a nuevas formas de creación, el interés humano por la exploración de la identidad a través del retrato en sus múltiples concepciones continúa presente en la creación inagráfica del siglo XXI.

Los sistemas de inteligencia artificial son, por tanto, una posible forma de expresión artística, igual que lo fueron y lo siguen siendo otras tecnologías. Es un arte emergente que abre nuevas posibilidades desde el punto de vista creativo, aunque aún es pronto para saber si encontrará su propio lenguaje. Si, como postula el filósofo Vilém Flusser (1999), la creatividad y la producción artística del ser humano están condicionadas por la tecnología, la incursión de la inteligencia artificial debe ser un motivo para la reflexión sobre el presente y el futuro del arte en todas sus dimensiones.

La expansión de la inteligencia artificial en todos los ámbitos de la sociedad actual ha desencadenado una acuciante preocupación por las cuestiones éticas derivadas de su utilización. Estos aspectos están siendo debatidos desde múltiples perspectivas, con interesantes aportaciones desde el posthumanismo, el transhumanismo, el bioconservadurismo, el colonialismo y otras cosmovisiones (Bostrom, 2005; Green, 2018; Krishnan et al., 2021). La introducción de esta tecnología en el arte del siglo XXI hace necesaria la continuación de un debate complejo dirigido a consensuar aspectos éticos, legales, terminológicos y artísticos en el marco de una revolución digital que es equiparable a las revoluciones agrícola e industrial de siglos anteriores. Posiblemente, las transformaciones sociales, económicas y culturales derivadas de esta nueva revolución consoliden la era que Alvin Toffler definió como «la tercera ola» (Toffler, 1980) y, quizá, constituyan el origen de una futura civilización con manifestaciones artísticas desconocidas e insospechadas.

Referencias

Adsuara, A. (2021, 19 de octubre). Imágenes sintéticas sin fin último. Gráffica. https://graffica.info/imagenes-sinteticas-sin-fin-ultimo-por-alberto-adsuara/

Alzubaidi, L., Zhang, J., Humaidi, A., Al-Dujaili, A., Duan, Y., Al-Shamma, O., Santamaría, J., Fadhel, M., Al-Amidie, M., Farhan, L. (2021). Review of deep learning: concepts, CNN architectures, challenges, applications, future directions. Journal of Big Data, 8(53), 1-74. http://doi.org/10.1186/s40537-021-00444-8

Art AI Festival. (2019, 23 de mayo). Mario Klingemann at the Art AI Festival conference on 23 May 2019 [video]. YouTube. https://youtu.be/1EFI6VMhlJ0

Bajac, Q. (2015). La fotografía: la época moderna 1880-1960. Barcelona: Blume.

Barthes, R. (2021). El susurro del lenguaje: más allá de la palabra y de la escritura. Barcelona: Ediciones Paidós.

Benjamin, W. (1989). La obra de arte en la época de su reproductibilidad técnica. En BENJAMIN, W. (Ed.). Discursos Interrumpidos I: Filosofía del arte y de la historia. (pp. 15-57). Buenos Aires: Taurus.

Berenguer, X. (1991). La imagen sintética como lenguaje. Temes de Disseny, 5, 165-173.

Bostrom, N. (2005). In defense of posthuman dignity. Bioethics, 19(3), 202-214. https://doi.org/10.1111/j.1467-8519.2005.00437.x

Bourached, A., CANN, G. H. (2019). Raiders of the Lost Art. arXiv, 1909.05677 [cs.CV], 1-4. https://doi.org/10.48550/arXiv.1909.05677

Bretón, A. (2006). Nadja. Madrid: Cátedra.

Cyland, Media Art Lab. (2018). Uncanny Mirror-Mario Klingemann (Germany) [video]. YouTube: https://youtu.be/47UEpNU4lUE.

Danto, A. C. (2020). Qué es el arte. Barcelona: Paidós.

Dehouche, N., Dehouche, K. (2023). What’s in a text-to-image prompt? The potential of stable diffusion in visual arts education. Heliyon, 9, e16757. https://doi.org/10.1016/j.heliyon.2023.e16757

De Propios, C. (2022). Arte e inteligencia artificial: técnicas de aprendizaje automático en el arte generativo actual (Tesis Doctoral). Madrid: Universidad Complutense de Madrid.

De Tommasi, A. (2022, 12 de julio). Brad Pitt, sobre su enfermedad: me cuesta reconocer las caras. Vanity Fair. https://www.revistavanityfair.es/articulos/brad-pitt-prosopagnosia-no-reconoce-caras.

Devillers, S. (2022, 10 de mayo). El revés de las imágenes: obras de arte e inteligencia artificial [video]. ARTE Concert. https://www.arte.tv/es/videos/110342-003-A/el-reves-de-las-imagenes/

Elgammal, A. (2018, 17 de octubre). Meet AICAN, a machine that operates as an autonomous artist. The Conversation. https://theconversation.com/meet-aican-a-machine-that-operates-as-an-autonomous-artist-104381

Epstein, Z., Levine, S., Rand, D. G., Rahwan, I. (2020). Who Gets Credit for AI-Generated Art?. IScience, 23(9), 101515. https://doi.org/10.1016/j.isci.2020.101515

Ferguson, K. (2014). Embrace the remix [vídeo]. TED-Ed. YouTube: https://youtu.be/Ltbi0uHZpOs

Flusser, V. (1999). Una filosofía de la fotografía. Madrid: Síntesis.

Fontcuberta, J. (2011, 11 de mayo). Por un manifiesto posfotográfico. La Vanguardia. https://www.lavanguardia.com/cultura/20110511/54152218372/por-un-manifiesto-posfotografico.html.

Fontcuberta, J. (2017). La furia de las imágenes: notas sobre la postfotografía. Barcelona: Galaxia Gutenberg.

Fontcuberta, J., ROSADO, P. (2019). Prosopagnosia. Madrid: RM.

Fontcuberta, J. (2022, 26 de noviembre). Fotografía Algorítmica y Revolución Visual [ponencia]. Festival Internacional de Fotografía (FIVVAL), Valdivia, Chile. YouTube. https://youtu.be/Jqod2zPCaAE

Fotografía DSLR. (2015, 24 de febrero). Grandes manipulaciones fotográficas antes de Photoshop. Fotografía DSLR. https://fotografiadslr.wordpress.com/2015/02/24/grandes-manipulaciones-fotograficas-antes-de-photoshop/

Fukuyama, F. (2015). ¿El fin de la Historia? y otros ensayos. Madrid: Alianza.

Gascoigne, E. (2021, 24 de febrero). Edward Curtis and «The North American Indian»: an exploration of truth and objectivity. Photography Ethics Centre. https://www.photoethics.org/content/2021/2/24/edward-curtis-and-the-north-american-indian-an-exploration-of-truth-and-objectivity

Google Arts & Culture. (2019, 8 de mayo). Explore infinite patterns through machine learning [vídeo]. YouTube. https://youtu.be/ezp1VYzjme0

Green, B.P. (2018). Ethical reflections on artificial intelligence. Scientia et Fides, 6(2), 9-31. http://dx.doi.org/10.12775/SetF.2018.015

Guadamuz, A. (2017). Artificial intelligence and copyright. Wipo Magazine, 5, 14-19.

Krishnan, A., Abdilla, A., Moon, A. J., Souza, C. A., Adamson, C., Lach, E. M., Ghazal, F., Fjeld, J., Taylor, J., Havens, J. C., Jayaram, M., Morrow, M., Rizk, N., Ricaurte-Quijano, P., Çetin, R. B., Chatila, R., Dotan, R., Mhlambi, S., Jordan, S., Rosenstock, S. (2021). Inteligencia Artificial: un manifiesto descolonial. https://manyfesto.ai/index1.html

Liu, G. (2022, 21 de junio). The World’s Smartest Artificial Intelligence Just Made Its First Magazine Cover. Cosmopolitan. https://www.cosmopolitan.com/lifestyle/a40314356/dall-e-2-artificial-intelligence-cover

López De Mántaras, R. (2016). La inteligencia artificial y las artes: Hacia una creatividad computacional. En Martínez-Deaño, Nuria (Ed.). El próximo paso: la vida exponencial (pp. 101-123). Madrid: BBVA, 2016.

Lyotard, J. F. (2006). La condición postmoderna. Madrid: Cátedra.

Manovich, L. (2019). AI Aesthetics. Moscow: Strelka Press.

Martínez, G. (2019). Manipulación fotográfica y credibilidad del medio periodístico a través de la fotografía. Correspondencias & Análisis, 9, 105-125. https://doi.org/10.24265/cian.2019.n9.06

Martínez-Sánchez, R. S. (2017). La obra de arte en la era del remix. Revista de Investigación y Pedagogía del Arte, 2, 1-18.

Mccarthy, J., Minsky, M., Rochester, N.; Shannon, C. (2006). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence: August 31, 1955. AI Magazine, 27(4), 12-14. https://doi.org/10.1609/aimag.v27i4.1904

Miller, A. I. (2020). The Artist in the Machine: The World of AI-Powered Creativity. Cambridge, MA: MIT Press.

MINECO. (2020). ENIA: Estrategia Nacional de Inteligencia Artificial. Madrid: MINECO (Gobierno de España).

OBVIOUS. (2020, 25 de junio). Nike Air Max 97 «AI Inspired» by Obvious [video]. YouTube. https://youtu.be/KO4m6IX4nlI

Ocaña, R. (2021). La influencia de la fotografía en la posición moral. Escritura e Imagen, 17, 291-298. https://doi.org/10.5209/esim.78949

O’neil, C. (2017). Armas de destrucción matemática: cómo el big data aumenta la desigualdad y amenaza la democracia. Madrid: Capitan Swing.

ONKAOS. (2019, 28 de mayo). Circuit Training by Mario Klingemann – AI: More than Human – Barbican (London) [video]. Vimeo: https://vimeo.com/onkaos/circuit

ONKAOS. (2018, 30 de octubre). Memories of Passersby I by Mario Klingemann [video]. Vimeo: https://vimeo.com/onkaos/marioklingemann

Paez, D. (2019, 21 de febrero). This Person Does Not Exist Creator Reveals His Site’s Creepy Origin Story. Inverse. https://www.inverse.com/article/53414-this-person-does-not-exist-creator-interview

Paglen, T. (2018, 28 de junio). Visiones de Máquina. Ciudad de México: Museo Tamayo. http://old.museotamayo.org/images/uploads/boletines/hojadesala_trevor_esp-ilovepdf-compressed.pdf

PARLAMENTO EUROPEO (2023, 14 de junio). Ley de IA de la UE: primera normativa sobre inteligencia artificial. Bruselas: Parlamento Europeo. https://www.europarl.europa.eu/news/es/headlines/society/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial

Peco, R. (2019, 29 de marzo). La inteligencia artificial provoca que tus fotos cada vez sean más extrañas. La Vanguardia. https://www.lavanguardia.com/tecnologia/20190329/461313983836/inteligencia-artificial-fotos-algoritmos-fotografia-computacional-fotos-irreales.html

Proposal Directive 2022/0303, of 28 September 2022, of the European Parliament and of the Council, on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive). European Commission COM(2022) 496 final. https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf

Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el texto refundido de la Ley de Propiedad Intelectual, regularizando, aclarando y armonizando las disposiciones legales vigentes sobre la materia. Boletín Oficial del Estado, núm 97, de 22 de abril de 1996, pp. 14369 a 14396. https://www.boe.es/eli/es/rdlg/1996/04/12/1/con

ReHUMANISM. (2019, 7 de junio). Antonio “Creo” Daniele - Grammar#1 - ReHumanism Art Prize [vídeo]. YouTube. https://youtu.be/KVnQEFFnOvw

Rosado, P., Fernández, R., Reverter, F. (2021). GANs and Artificial Facial Expressions in Synthetic Portraits. Big Data and Cognitive Computing, 5(4), 63. https://doi.org/10.3390/bdcc5040063

Srnicek, N. (2018). Capitalismo de plataformas. Madrid: Caja Negra.

Suwajanakorn, S. (2018, 25 de julio). Fake videos of real people and how to spot them [video]. TED. YouTube. https://youtu.be/o2DDU4g0PRo

Toffler, A. (1980). La tercera ola. Barcelona: Plaza & Janés.

Verostko, R. (1998). Algorithmic Art: Composing the Score for Visual Art. Site map for Roman Verostko. http://www.verostko.com/algorithm.html#THE_ALGORISTS

Zylinska, J. (2017). Nonhuman Photography. Cambridge: MIT Press.

Zylinska, J. (2020). AI Art: Machine Visions and Warped Dreams. London: Open Humanities Press.

Notas


1. Sitio web oficial de AICAN: https://www.aican.io

3. Sitio Web oficial de Antonio «Creo» Daniele: https://www.letitbrain.it/letitbrain/

4. Daniele, A. (2019). Grammar#1 [Imagen]. https://www.re-humanism.com/project/antonio-creo-daniele/

5. Picasso, P. (1903-1904). El viejo guitarrista [imagen]. https://www.artic.edu/artworks/28067/the-old-guitarist

7. Sitio web oficial de StyleGAN - Official TensorFlow Implementation: https://github.com/NVlabs/stylegan

8. Sitio web oficial de DALL-E 2: https://openai.com/product/dall-e-2

9. Sitio web oficial de Stable Diffusion: https://stability.ai

10. Sitio web oficial de Stable Diffusion 2.1 Demo: https://huggingface.co/spaces/stabilityai/stable-diffusion

11. Sitio web oficial de Midjourney: https://www.midjourney.com

12. Sitio web oficial de Midjourney Community Showcase: https://www.midjourney.com/showcase/recent

13. Sitio web oficial de Mario Klingemann: https://quasimondo.com

14. Klingemann, M. (2018). Memories of Passersby I [imagen]: https://underdestruction.com/2018/12/29/memories-of-passersby-i/

15. Klingemann, M. (2019, 6 de marzo). Memories of Passersby I. Sotheby’s Contemporary Art Day Auction / Lot 109. London. Marina Ruiz Colomer (Curator, Head of Sotheby’s Contemporary Art Day Auction).

16. Sitio web oficial de Trevor Paglen: https://paglen.studio

17. Paglen, T. (2017). Fanon [imagen]: https://paglen.studio/2020/04/09/fanon

18. Paglen, T. (2017). Vampire (Corpus: Monsters of Capitalism)-Hallucinations [imagen]: https://paglen.studio/wp-content/uploads/2020/06/Palgen-Vampire_2017.jpg

19. Sitio web oficial de Refik Anadol: https://refikanadol.com

20. Anadol, R. (2023). Artificial Realities: Coral. World Economic Forum – Davos – Switzerland. Del 16/01/2023 al 21/01/2023. Joseph Fowler (Curator, World Economic Forum).

21. Sitio web oficial de Pilar Rosado: https://pilarrosado.eu

22. Rosado, P. (2021). La petite mort [imagen]: https://prosopagnosia.es/la-petite-mort

23. Obvious. (2018). Edmond de Belamy [imagen]: https://obvious-art.com/portfolio/edmond-de-belamy

24. Obvious. (2018). La Famille De Belamy [imagen]: https://obvious-art.com/la-famille-belamy/

25. El texto original en inglés fue: «A wide angle shot from below of a female astronaut with an athletic feminine body walking with swagger towards camera on mars in an infinite universe, synthwave digital art».

26. Faking It: Manipulated Photography Before Photoshop. The Metropolitan Museum of Art – New York. Del 11/10/2012 al 27/01/2013. Sin información sobre comisariado. https://www.metmuseum.org/exhibitions/listings/2012/faking-it

29. Sitio web oficial de Generated Media: https://generated.photos

30. Burson, N. (1982-1996). Composites [Imagen]: https://www.nancyburson.com/portfolio/G0000Vk2soDvV_Fc/I0000fSggXt5VBJk