Núm. 30-Marzo 2024, pp. 93-126
[En línea] http://www.revistas.uma.es/index.php/rejie
EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL GENERATIVA: CLÍNICA JURÍDICA E INNOVACIÓN DOCENTE
The impact of generative artificial intelligence: legal clinic and teaching innovation
Recibido: 7 de diciembre de 2023
Aceptado: 1 de febrero de 2024
Mª Pilar Dopazo Fraguío
Profesora de Derecho Administrativo. Facultad de Derecho
Universidad Complutense de Madrid
copyrightEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0.

RESUMEN

En este trabajo se analiza el impacto de los actuales sistemas de IA desde la perspectiva jurídica y, en particular, se observa su incidencia en el ámbito de la educación superior. Siendo un hecho cierto el impulso actual que recibe esta tecnología por la Unión Europea (UE) y en atención a las potenciales utilidades que ofrece, también debe advertirse sobre sus riesgos. Por ello, el disponer de una regulación común europea sobre IA es fundamental, en orden a contar con la necesaria base legal. En este sentido, se valora el relevante hito que supone la “Ley UE de IA” prevista. Desde el Derecho, en todo caso, se ha de adoptar un enfoque proactivo y, a su vez, preventivo. Asimismo, se estima que las acciones destinadas a la innovación jurídica y la innovación docente, actuando ambas de forma paralela, adquieren una valiosa funcionalidad ante este tema complejo. Ello, sobre todo, siendo pragmáticos si se pretende abordar esta cuestión de forma adecuada, con máxima diligencia y eficacia.

PALABRAS CLAVE

sistemas de inteligencia artificial, inteligencia artificial generativa, innovación jurídica, innovación docente.

ABSTRACT

This paper analyzes the impact of current AI systems from a legal perspective and, in particular, its impact in the field of higher education is observed. Being a true fact the current boost that this technology receives from the European Union (EU) and in view of the potential benefits it offers, it should also be warned about its risks. Therefore, having a common European regulation on AI is essential, in order to have the necessary legal basis. In this sense, the relevant milestone represented by the planned “EU AI Law” is valued, Anyway, a proactive and, at the same time, preventive legal approach must be adopted. Likewise, it is estimated that actions aimed to legal innovation and teaching innovation, both acting in parallel, acquire valuable functionality in front of this complex environment. If we intend to address this issue adequately, with maximum diligence and effectiveness we´ll be pragmatic.

KEYWORDS

artificial intelligence systems, generative artificial intelligence, law innovation, teaching innovation.

Sumario: 1. Introducción. Motivación del estudio y planteamiento de consideraciones previas. 2. El potencial valor de la IA: especial referencia al impacto en el ámbito jurídico y educativo (educación superior). 3. Sistemas de Inteligencia Artificial (IA): noción, evolución y propiedades. El desarrollo actual de la “IA generativa”. 3.1. Definición y desarrollo evolutivo. 3.2. Definición actual y tipología de sistemas de ia a la luz del enfoque regulatorio europeo. 3.3. La IA generativa. 4. Interés regulatorio: innovación jurídica europea. 4.1. Contexto estratégico. 4.2. Arquitectura legal compartida: novedades del reglamento UE propuesto. 5. Conclusión. 6. Bibliografía.

1. Introducción. Motivación del estudio y planteamiento de consideraciones previas

El creciente auge de la inteligencia artificial (IA, en adelante) constituye un tema de actualidad que debemos abordar desde el Derecho, así como reflexionar sobre las implicaciones que este fenómeno conlleva en el ámbito de la educación superior. En efecto, la implementación de sistemas avanzados de IA y, en especial, la denominada “IA generativa”, está suscitando un amplio debate social, ético y jurídico. Ello, como es lógico, también afecta al entorno educativo, a todos los niveles. Si bien, el presente estudio se focaliza en el examen de esta cuestión en la educación superior y, en particular, por lo que respecta al estudio de la Ciencia jurídica. Pues, según ya se observa en la práctica actual, el empleo progresivo de este tipo de herramientas tecnológicas muestra un alto valor instrumental, pero también destacados riesgos. Por tanto, advirtiendo lo mencionado, consideramos de sumo interés tratar este tema de actualidad con atención desde la óptica técnica y jurídica.

Ante el potencial impacto que genera la IA, reconocida como tecnología emergente y con destacados efectos disruptivos, resulta razonable el debate actual que se suscita en torno al incremento de su posicionamiento y sus efectos. Siendo una realidad que se pretende fomentar la incorporación o uso extensivo de esta tecnología en los diferentes entornos o áreas de actividad, lo cual, concierne tanto al sector público como al privado. Ello, se observa en el presente, habida cuenta del impulso promotor que recibe desde la Unión Europea, tal y como exponemos en este trabajo.

En este texto se significa el valor de la nueva regulación europea prevista sobre IA, vía Reglamento UE, por ser una normativa común que se plantea como respuesta necesaria ante este fenómeno. Así, la proyectada ”Ley europea de IA” será fundamental —según se infiere— al fijar las bases legales necesarias. El disponer de una legislación compartida es, sin duda, algo nuclear en estos momentos. Nótese que con este acto normativo se establece el primer régimen jurídico que disciplina el uso de sistemas de IA. La innovación jurídica que se aporta es principal para el tratamiento legal y armonizado de este tema. De este modo, la pretensión del legislador europeo radicaría en propiciar mayor confianza y seguridad en este terreno.

En el estudio realizado se observa la amplia proyección que muestra la IA, aproximando el conocimiento sobre el potencial que ofrece esta herramienta tecnológica. Y, en particular, desde una perspectiva jurídica, se realizan algunas consideraciones sobre las implicaciones que conlleva su posible uso o aplicación integrativa como recurso. Este instrumento operativo presenta incidencia en la clínica jurídica, por lo que esta cuestión ha de ser examinada con atención. Al respecto, se reconocen las posibilidades que se abren con base a las utilidades de este instrumento, pero, de igual modo, debe advertirse acerca de sus riesgos. En consecuencia, se apunta la necesidad de abordar el tratamiento de esta cuestión con un enfoque proactivo y, a su vez, preventivo. De ahí, se razona que también hoy resulte de especial interés tratar esta cuestión desde el ámbito educativo.

En definitiva, es un hecho cierto que la IA tendrá una incidencia destacada y generadora de cambios en los modelos, por lo que debemos estar preparados tanto profesores como estudiantes. Del mismo modo, sucede en la práctica jurídica y en otros ámbitos de actividad; pues, la IA se suma —y de forma decisiva— al proceso de transformación digital que vivimos. Por consiguiente, es evidente que debemos tener en cuenta los múltiples efectos de la IA, en los diferentes campos y áreas del conocimiento científico.

De forma específica, en la actualidad, esta cuestión adquiere especial incidencia en la clínica jurídica. Por ende, al respecto, en este trabajo se refieren aquellos aspectos que presentan relevancia y donde el impacto ha sido detectado o se observa mayor riesgo en la práctica 1. En este sentido, también se apunta que las clínicas jurídicas universitarias pueden ser un espacio óptimo como laboratorios destinados al estudio analítico de esta cuestión.

Lo señalado, como es lógico, afecta al modelo y desarrollo de la actividad docente y/o formativa, incluso, en lo relativo a la gestión académica. Con todo, se estima que, ante esta realidad, la innovación docente podrá ser muy conveniente para guiar o encaminar nuevos planteamientos, proyectos y acciones de interés. Ello, sobre todo, puede ser útil u oportuno ante los cambios que se avecinan con motivo de la IA —como ya aconteciera en el pasado con la incorporación de otras herramientas tecnológicas o las TIC 2—, y máxime teniendo en cuenta la posible integración de este recurso instrumental en los futuros modelos y procesos de aprendizaje.

2. El potencial valor de la IA: especial referencia al impacto en el ámbito jurídico y educativo (educación superior)

La inteligencia artificial es una tecnología emergente y junto a otras tecnologías digitales puede ser calificada como la más disruptiva. Cierto es que muestra sumo valor potencial en la economía o en la industria, así como en otros terrenos. También, por ende, afecta al ámbito del Derecho, y de forma muy especial por las diversas razones que exponemos a lo largo de este trabajo.

En principio, con su impulso actual, se argumenta desde la Unión Europea (UE) que podría servir para aumentar la productividad, el desarrollo de nuevas áreas de negocio y/o facilitar el emprendimiento económico. En este sentido, puede ser útil para promover la innovación y la generación de nuevos productos o servicios digitales. Asimismo, se esgrime que el adecuado uso de determinadas aplicaciones de la IA facilitaría la actividad de las Administraciones en distintos ámbitos —por ej., en materia de contratación pública 3— y la prestación de algunos servicios públicos, entre otras funcionalidades; incluso, en lo relativo al control del sector público. 4

No obstante, también se reconoce que conlleva importantes riesgos y de distinta tipología 5; entre otros, hay que referenciar —de forma especial— aquellos relativos a la protección de los derechos fundamentales como son la privacidad y los datos personales 6, así como otros, derechos de la propiedad intelectual/industrial, seguridad y ciberseguridad, por citar algunos de los detectados donde ya la IA muestra especial incidencia 7. Con ello, se pone de manifiesto que esta tecnología plantea importantes desafíos jurídicos y, a su vez, se subrayan tres aspectos nucleares que convendrá asegurar: la privacidad, la transparencia y la responsabilidad” 8. En este mismo sentido, se alerta por los expertos gestores de riesgos, sobre éstos y otros tipos de riesgos como —por ejemplo— el riesgo reputacional derivado del uso inadecuado o no lícito de la IA, entre otros. Dicha diversidad y tipología de riesgos tendría un impacto directo o indirecto en los sujetos u operadores, causando posibles daños o perjuicios. Por tanto, en suma, los efectos adversos podrían incidir tanto en personas físicas como jurídicas, organizaciones/entidades o empresas afectadas 9.

Las innovadoras modalidades de IA —o sistemas de IA—, como la “IA generativa”, suponen una importante transformación, afectando a todos los ámbitos o sectores. De este modo, en los últimos tiempos, se incrementan las herramientas y aplicaciones desarrolladas, comercializadas u ofrecidas, haciendo de la IA de forma progresiva un elemento que conviene conocer y abordar también desde la ciencia jurídica, pues, hoy, queda demostrado su alto impacto en la práctica 10.

La doctrina científica ha identificado las oportunidades que aporta la IA, así como los problemas que se plantean. Por lo cual, conviene adoptar medidas adecuadas con celeridad y acierto. A nuestro juicio, conviene hacer hincapié en lo relativo a la formación especializada de los profesionales del Derecho, pues, se reconoce que la IA es una de las cinco tecnologías emergentes que tienen un destacado poder transformador de la sociedad, la industria y, en general, de la economía. Así, representaría el paso decisivo a la cuarta revolución industrial.

Desde el Derecho administrativo ha sido considerada esta cuestión 11, avanzando la importancia que muestra este tema en la práctica, el cual, ahora, adquiere mayor relevancia al surgir nuevos sistemas de IA, como la “IA generativa” referenciada de forma expresa en nuestro actual estudio. De este modo, como se pone de manifiesto en el presente, la cuestión no es baladí, toda vez que también la tendencia es el empleo de IA por el sector público. En concreto, las Administraciones públicas de forma progresiva —y máxime con el incremento de la “Administración digital”— incorporan esta herramienta en su actividad 12, asimismo, en lo relativo a la prestación de los servicios públicos 13. De igual modo, hoy, esta cuestión puede afectar a otros ordenes, por ejemplo, la administración de justicia 14.

En todo caso, los riesgos que conlleva el uso de la IA también han sido puestos de manifiesto 15. En especial, preocupa a la doctrina por lo que respecta a la incidencia que se advierte y pudiera afectar a la protección de los derechos fundamentales, privacidad y datos personales 16. Asimismo, podría incidir en otros derechos dignos de tutela jurídica, como son los derechos de la propiedad intelectual/industrial 17.

Así pues, la IA plantea nuevos desafíos, quedando ligada a la transformación digital 18. Incluso, cabe señalar que con esta nueva tecnología se incrementan los retos planteados, en particular, en el caso de la IA generativa o ante los futuros desarrollos de la misma, u otras nuevas herramientas o sistemas IA. Por ello, el uso de la inteligencia artificial ha de ser analizado en profundidad, también desde el enfoque del Derecho administrativo actual.

Con base a todo ello, se insiste en la importancia de regular el uso de la inteligencia artificial, así como, establecer los principios rectores comunes que han de guiar la actuación y el posible empleo de este tipo de medios 19. De igual modo, otros autores hacen hincapié en que es conveniente contar con una regulación específica en este campo 20. Compartiendo el enfoque y la opinión de estos autores, cabe concluir que, en efecto, hoy es fundamental regular los sistemas de IA, vía una normativa común y con objeto de aportar la debidas garantías, confianza y seguridad jurídica.

En paralelo, hay que tener en cuenta los efectos de la implementación de la IA en el ámbito de la educación. Al respecto, el enfoque internacional resultaría esencial, amén del propio europeo como es lógico. La UNESCO señala que “Las tecnologías basadas en la IA ofrecen grandes oportunidades si se desarrollan respetando la normativa, la ética y los estándares internacionales, y si se fundamentan en valores basados en los derechos humanos y el desarrollo sostenible”. También, se insiste en encaminar programas educativos y cursos de formación destinados a juristas, algunas iniciativas ya son ofrecidos vía programas colaborativos internacionales, por ej., cursos abiertos en línea (MOOC) 21.

Las expectativas de desarrollo económico asociadas a la IA son puestas en valor, según UNESCO. Desde este organismo, se propone un enfoque ético de la IA y centrado en el ser humano 22. Así, con una finalidad orientadora y con motivo del Consenso de Beijing 23, se elaboró un documento “Inteligencia artificial: guía para las personas a cargo de formular políticas” 24 para promover la formación de gestores y de los responsables de diseñar políticas educativas en este tema. Su objetivo principal sería facilitar una mejor interpretación de las ventajas de guiar el uso responsable de la IA. Y, por otra parte, señalar los desafíos que se presentan con respecto a la educación a todos los niveles. En particular, por ejemplo, con el fin de orientar sobre las aplicaciones del ChatGPT en la Educación Superior, la Unesco ha publicado una guía en 2023 25. Se espera que esta labor pueda servir para fomentar nuevas iniciativas destinadas a los profesionales y adaptadas a las distintas disciplinas o áreas, de forma que se logre avanzar en la integración positiva de la IA en los programas educativos.

No obstante, estimamos que, por nuestra parte y de forma responsable, debemos focalizar la cuestión en el ámbito de la universidad, los programas europeos de educación superior y otros programas formativos en Derecho. Ello, se estima principal a la vista del escenario que se plantea y con motivo del posible uso de este tipo de herramientas IA Generativas, como el ChatGPT u otras que a futuro que se desarrollen. En consecuencia, cabe pensar que se hace preciso diseñar cursos, talleres o seminarios de carácter transversal donde se faciliten conocimientos teóricos/prácticos y se oriente el proceso de aprendizaje sobre la IA. En especial, podrían resultar de interés aquellos específicos orientados también al tratamiento técnico y jurídico de esta cuestión, lo cual, a su vez, ha de estar necesariamente interrelacionado con la gestión de datos (personales y no personales, conforme a la tipología reconocida por la legislación europea vigente) 26 y la gestión de riesgos. Esto es, no solo es necesaria la formación técnica en lo relativo al uso de la tecnología de IA aplicada o aplicable, también se precisará diseñar programas específicos y orientados a la clínica jurídica 27, donde se aborde en profundidad las implicaciones teóricas y prácticas de la IA.

Por tanto, no solo se trata de aproximar el conocimiento acerca de las tecnologías digitales y la aplicación de los sistemas de IA como tales, sino que también para el juristas —o para la formación integral del futuro profesional del Derecho— resultará de interés examinar este tema —su consideración, tratamiento y efectos— en atención a las diferentes áreas o disciplinas. De igual modo, será fundamental analizar otros contenidos interrelacionados, facilitando un completo aprendizaje y orientado a la capacitación o el perfeccionamiento profesional. En este sentido, además, cabe hacer hincapié en algunas materias vinculadas que deben tenerse en cuenta, como —por ejemplo— lo relativo a la “gobernanza de los datos” y los “sistemas de gestión de riesgos” (regulación, autorregulación, instrumentos y modelos de implementación, entre otros aspectos). Pues, en la práctica, estimamos que todo ello son cuestiones principales y directamente ligadas. A dicho fin, puede ser muy oportuno diseñar eficaces espacios y programas que también sirvan de auténticos “laboratorios jurídicos”, vía la configuración de avanzadas “clínicas jurídicas universitarias”. Esta podría ser una fórmula satisfactoria para operar y emprender en este sentido, donde además se puedan plantear —y “experimentar”— proyectos de innovación docente en el nuevo entorno universitario, y otras acciones formativas de carácter integrativo, abarcando distintas disciplinas o con un enfoque trasversal. De este modo, en la actualidad, se apunta el valor de las conocidas como “clínicas jurídicas” como útiles modelos dinámicos para el aprendizaje y/o el perfeccionamiento formativo, ya que a través de esta fórmula no solo se propicia el estudio analítico de supuestos o casos prácticos reales también se fomenta la investigación, generando innovación y transferencia de conocimientos y resultados.

Ahora bien, desde la perspectiva jurídica y docente, conviene precisar que la IA ha de ser entendida solo como una herramienta complementaria o de apoyo, pero, hoy por hoy, no podría sustituir al trabajo profesional del jurista ni del docente. Por tanto, la utilidad actual de esta tecnología se razona, en primer lugar, ante la necesidad de admitir o aceptar que es una realidad y, por ende, debemos adaptarnos y estar preparados para lo que conlleva, y, en segundo lugar, cabe reconocer su potencialidad (siempre que sea empleada de forma adecuada, ética, diligente y disponiendo del conocimiento preciso). Así pues, podría decirse que este fenómeno es consecuencia del propio proceso de transformación digital al que asistimos. Con base a ello, lo cierto es que esta herramienta está presente y su empleo aplicativo parece algo útil para algunas tareas, esto se estima por los expertos a tenor del progresivo fenómeno de la amplia digitalización de documentos, la coexistencia de múltiples bases de datos y grandes volúmenes de información que deben ser localizada, analizada, comparada y, en todo caso, verificada, aportando soluciones o respuestas cada vez con mayor celeridad o en breve plazo 28. Por tanto, la IA —empleada o aplicada de forma lícita y responsable— sí podría facilitar ciertas actividades o trabajos, como —por ejemplo— el disponer de datos o información digitalizada procedente de diferentes bases de datos o registros, ofrecer planteamientos o casos precedentes sobre un tema objeto de estudio para luego ser examinado y/o llegar antes a las posibles opciones viables o eventuales respuestas o soluciones, poder valorar y seleccionar. Si bien, conviene insistir en lo nuclear, orientar “buenas prácticas” relativas al uso de esta tecnología y, desde luego, tener en cuenta las recomendaciones ofrecidas, evitando riesgos, tal y como ha sido expuesto supra.

En este sentido, en el terreno de la educación superior pueden resultar valiosas algunas de las contribuciones ofrecidas o experiencias ya aportadas desde distintos ámbitos 29. Con todo, en este tema —a nuestro juicio—, la innovación jurídica y la innovación docente han de ir paralelas, progresando con los tiempos y tratando de resolver los retos planteados con éxito. Pues, como sabemos, la tecnología suele avanzar más veloz que su posible regulación o previsión legal. Por ello, el diseño de proyectos (adecuados y eficaces) en innovación docente pueden ser útiles, tal y como muestran algunas iniciativas en curso en otras áreas disciplinas científicas o áreas del conocimiento 30.

En definitiva, conforme a todo lo expuesto, lógico es que hoy resulte urgente regular esta materia y evitar la inseguridad jurídica. Con ello, se trata de aportar mayor confianza, procurando asegurar el empleo adecuado, seguro y responsable de IA. Pero, además, en paralelo, consideramos que también se debe hacer mayor hincapié en la cultura, la educación y la formación para enfrentar con eficacia los retos que se plantean. Por ello, en estos momentos se trabaja en el diseño de programas formativos y proyectos-guía donde la innovación docente podrá resultar principal. Consideramos que este es un tema que reviste gran interés desde la óptica del Derecho, y donde resulta esencial contar con la debida formación (integral) y experiencia práctica, no solo en lo referente al uso de la IA como posible recurso tecnológico o que pueda ser empleado, también en orden a examinar sus implicaciones y facilitar el aprendizaje de todo lo mencionado. De ahí, el interés actual en desarrollar programas específicos destinados a la capacitación de los distintos profesionales técnicos y jurídicos, entre otras iniciativas o acciones de divulgación del conocimiento.

3. Sistemas de inteligencia artificial (IA): noción, evolución y propiedades. El desarrollo actual de la “IA generativa”

En la actualidad, la inteligencia artificial es una de las tecnologías más disruptivas y que mayor atención despierta. Lo nuevos modelos y productos de IA son cada vez más avanzados, por lo cual, se aceleran tanto las posibilidades como los problemas planteados. El debate científico, jurídico, social y político se intensifica ante los riesgos detectados.

Nótese, además, como la última generación de IA se desarrolla —a priori— para crear sistemas computacionales operativos inteligentes que, incluso, actuarán de forma autónoma una vez pre-programados o “entrenados”. Dicha “inteligencia” toma como modelo la inteligencia humana, pero, lógicamente, su modo de actuar —hasta la fecha— no es análogo o, al menos, no podría ser asegurada dicha similitud con certeza, salvo prueba en contrario o en aquellos supuestos en que pudiera ser acreditado.

Hasta el momento, la IA ha sido objeto de estudio como disciplina comprendida en las Ciencias de la Computación o Ingeniería Informática. Así, la inteligencia artificial se podría definir como esa tecnología capacitada para obtener, procesar e interpretar datos o información, de forma similar al proceder humano, empleando una serie de algoritmos y modelos predeterminados, y con todo ofrecer un resultado. En la actualidad, las herramientas de IA generativa han evolucionado, ofreciendo avanzados productos como “Chat GPT”.

De igual modo, en este campo, no podemos olvidar su necesaria interrelación con otras expresiones como son Machine Learning 31, Big Data 32, Open data (o Datos abiertos), etc., que en poco tiempo ya han sido conocidas e integradas en nuestro vocabulario. Algunas de las cuales, cabe decir que ya forman parte de nuestro acervo técnico jurídico, por su actual aplicación actual en el Derecho o la clínica jurídica. 

Hasta hoy, en todo caso, no existía una definición única o universal sobre la IA. Tampoco una noción legal compartida. Es ahora, precisamente, al plantearse la necesidad de su regulación por parte de la Unión Europea cuando trata de aportarse una noción legal común. Así, hay que significar la definición aportada por el actual texto normativo del Reglamento europeo sobre inteligencia artificial que examinamos en este trabajo, toda vez que trataría de establecer un concepto más claro al respecto, concretando algunos aspectos de interés, como son —por ejemplo “sistemas de IA” o “modelos fundacionales” 33.

3.1. Definición y desarrollo evolutivo

En origen, el término «inteligencia artificial» fue aportado por John McCarthy en 1956 con motivo de la Conferencia de Dartmouth 34 y, posteriormente, en 2004, se define como «la ciencia y la ingeniería para crear máquinas inteligentes, especialmente programas informáticos inteligentes”. Con esta noción se pone de manifiesto la potencial capacidad que pueden adquirir los sistemas desarrollados para aprender de modelo humanos e, incluso, generar nuevos modelos artificiales o mejorar los genuinos, aprendiendo de la previa experiencia. Si bien, para todo ello se necesita obtener datos, siendo así este el principal recurso. Stuart Russell y Peter Norvig (2004) 35, exponen que El principal tema unificador es la idea del agente inteligente”, y definen la IA como “el estudio de los agentes que reciben percepciones del entorno y llevan a cabo las acciones”, de forma que “cada agente implementa una función la cual estructura las secuencias de las percepciones en acciones; también tratamos las diferentes formas de representar estas funciones, tales como sistemas de producción, agentes reactivos, planificadores condicionales en tiempo real, redes neurales y sistemas teóricos para las decisiones”. Estos autores ilustran sobre el modo de aprendizaje, el diseño del mismo y cómo incorporarlo a nuevos entornos o “entornos desconocidos”. En todo caso, es fundamental el proceso previo de entrenamiento, se requiere para posibilitar que se pueda lograr por el sistema “la representación y el razonamiento explícitos del conocimiento”. Conforme a este planteamiento, se aborda el diseño de la robótica y su enfoque avanzado, con el fin de alcanzar objetivos. Con todo, en su obra subrayan la importancia de considerar “el entorno de las tareas al determinar el diseño apropiado de los agentes” 36.

Con carácter general, a modo de aportar un resumen ilustrativo en esta materia, cabe señalar que las técnicas de IA se pueden clasifican en varias categorías —según diferentes criterios de clasificación— y según se refieran a la capacidad de percibir, razonar y/o aprender y, en su caso, reproducir o crear. Esto es, más allá de procesar datos o información, los nuevos desarrollos de IA están dotados de más capacidades y/o funcionalidades. Desde la robótica y la ingeniería informática como disciplinas, han sido aportados avances de interés en los últimos tiempos. En este sentido, en efecto, la evolución procurada es relevante, si se observa —por ejemplo— desde las herramientas más básicas Machine Learning o aprendizaje de la máquina hasta los modelos de aprendizaje supervisado (Supervised learning), el aprendizaje no supervisado (Unsupervised learning) y el aprendizaje de refuerzo (Reinforcement learning). De igual modo, hay que destacar las denominadas “técnicas de aprendizaje automático” que con base al empleo de algoritmos y previo entrenamiento se basan en tratar de emular la operativa de las redes neuronales del cerebro humano (Neural networks) 37.

En concreto, la “IA Generativa” supone un paso muy decisivo en la evolución de la IA. Al respecto, son ejemplos de los modelos generativos desarrollados hasta la fecha la siguiente herramienta o producto comercializado más conocidos, el ChatGPT de OpenAI 38, toda vez que posibilita la creación y no solo la reproducción (por ej., crea textos, ensayos, imágenes, etc.). No obstante, en la actualidad, también cabe puntualizar que dicha posible creación que como resultado se obtenga puede ser fiable o no. Esto es, los resultados obtenidos pudieran no ser óptimos, por contener sesgos o fallos, por lo cual, —en la práctica—, conviene que sea supervisada, validada o verificada por los profesionales de cada disciplina. Por ello, esta herramienta aún plantea dudas fundadas, máxime en atención a consideraciones jurídicas entre otros riesgos.

En consecuencia, ante la novedad de esta tecnología, es razonable que existan profesionales, docentes e investigadores escépticos, en orden a su posible uso o como eventual recurso de aprendizaje. Así, la herramienta de Inteligencia Artificial ChatGPT está siendo observada por parte de las Autoridades y Agencias de Protección de Datos, como, en concreto, por la española 39. De igual modo, se advierte acerca de sus peligros ante un posible empleo inadecuado o no controlado de la Inteligencia Artificial (IA) 40

3.2. Definición actual y tipología de Sistemas de IA a la luz del enfoque regulatorio europeo

La ambiciosa Estrategia Europea de IA trazada por la UE pretende lograr que sea “un centro de excelencia mundial para la IA y garantizar que la IA esté centrada en el ser humano y sea fiable”. Este sería, en síntesis, el objetivo que se infiere a tenor del enfoque europeo y en aras de “la excelencia y la confianza a través de normas y acciones concretas”, tal y como ya se pone de manifiesto en la inicial Comunicación de la Comisión Europea (2018) 41: “Inteligencia artificial para Europa”.

Avanzando en esta cuestión, en abril de 2021, la Comisión presentó el denominado “paquete de medidas” previstas en materia de IA, al respecto, se citan los principales hitos a saber:

  1. Comunicación de la Comisión Europea: Fomentar un enfoque europeo de la Inteligencia Artificial 42.
  2. Revisión del Plan Coordinado sobre Inteligencia Artificial 2021 (21-4-2021) 43.
  3. Marco regulador propuesto sobre IA. La Comisión presentó la propuesta de Reglamento sobre inteligencia artificial en abril de 2021, Propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial 44. Lo anterior se complementa con el documento actualizado relativo a la evaluación de impacto de esta regulación 45. Con ello, el objetivo es abordar con éxito los riesgos provocados por el empleo o “usos específicos “de la IA, y, a dicho fin, clasifica la tipología de riesgo en cuatro niveles diferentes: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo.
  4. Posteriormente, el Parlamento Europeo en el texto aprobado —el pasado 14 de junio de 2023— ha realizado modificaciones y cambios relevantes al texto inicial 46. Con lo cual, en estos momentos, la tramitación legislativa sigue su curso para culminar el procedimiento, según lo anunciado y tras las negociaciones en el Consejo. Así, finalmente, ha sido acordado el texto normativo del nuevo Reglamento europeo “Ley Europea sobre Inteligencia Artificial” (“IA Act”), adoptado por la UE el pasado 9 de diciembre de 2023 47.

De este modo, la Ley de IA de la UE sería la primera normativa común sobre inteligencia artificial, la cual, se plantea con buen propósito, como vía para aportar seguridad jurídica y mayor confianza en el uso de la IA que utilizan. En este sentido, también se dice que esta normativa será clave “construir un ecosistema de excelencia en IA y fortalecer la capacidad de la UE para competir a nivel mundial” 48. Cuestión distinta será lograr dichas pretensiones, por lo que también deberemos esperar para valorar sus efectos.

Desde la Comisión europea se aportó una noción actual de IA, en síntesis, la conceptúa como “sistemas de software” —también, cabe entender de hardware— que son configurados por personas y “entrenados” para que, ante un supuesto concreto u objetivo complejo, operen en entornos físicos o digitales de la siguiente forma: (1) Interpreten el entorno y obtengan datos (estructurados o no estructurados), (2) ordenando la información lograda, “razonando sobre el conocimiento”, sea procesada, y (3) se aporte respuesta o decisión que resuelva el supuesto, facilitando una solución satisfactoria u óptima sobre la mejor medida o acción a ejecutar según el objetivo prefijado.

Esta inicial definición ha sido revisada y actualizada por el Grupo de Alto Nivel sobre Inteligencia Artificial (AI HLEG) 49, tomando como punto de partida la noción propuesta por la Comisión europea —en la Comunicación “Inteligencia artificial para Europa” de 25 de abril de 2018 50—, en virtud de la cual, la expresión ‘inteligencia artificial’ (IA) se aplica a “los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— con el fin de alcanzar objetivos específicos” 51.

De este modo, en la actual definición 52 facilitada por el grupo de expertos se amplía la noción legal, con objeto de concretar algunos aspectos de la IA, interpretada también como disciplina científica y como tecnología. Así, el grupo de expertos de la Comisión Europea —en el nuevo o renovado concepto— subraya«la racionalidad, más que en la inteligencia” y amplia su posible proyección científica.Conforme a la nueva noción, se señala que «Los sistemas de inteligencia artificial (IA) son sistemas de software —y en su caso también de hardware— diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno a través de la adquisición de datos, interpretan los datos estructurados o no estructurados recogidos, razonan sobre el conocimiento, o procesan la información derivada de estos datos y deciden la(s) mejor(es) acción(es) que se debe(n) llevar a cabo para alcanzar el objetivo dado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo el entorno se ve afectado por sus acciones anteriores” 53.

De esta forma, se trata de facilitar una noción más clara, evitando confusiones y tratando de conciliar diferentes interpretaciones posibles. Pues, desde luego, es de interés colectivo el disponer de una definición común respecto a la IA, asimismo, el contar con la debida referencia a los presupuestos útiles que deban ser observados, las directrices que han de guiar su empleo o utilización y, en su caso, las recomendaciones que sean oportunas en orden al diseño de las políticas sobre IA. De forma paralela, desde las instituciones europeas UE, se trata de explicar esta cuestión a la sociedad 54.

Como ha sido expuesto, queda patente que la noción de IA ha evolucionado. Ello, resulta acreditado a la luz de reciente definición aportada en el texto actual de la “Ley europea de IA” o Reglamento UE aprobado por el Parlamento Europeo (2023) 55, al que por su significativo interés nos referimos ulteriormente con mayor detalle.

En principio, conforme a la inicial noción de IA, cabe interpretar que son dos las modalidades básicas o tipos de sistemas, clasificadas en atención al criterio de su funcionalidad principal: (i) Software que operan como asistentes virtuales, empleados para tratar imágenes, reconocimiento de voz y otros datos identificativos de las personas, también los motores de búsqueda; y, (ii) Inteligencia artificial integrada: robots, drones o aeronaves no tripuladas autónomas, vehículos autónomos o el “internet de las cosas”.

Ahora bien, en la práctica, esta clasificación resulta hoy muy elemental o simple, ya que, en la actualidad, hay más tipos de inteligencia artificial, más complejos y avanzado. Por ello, se suma otro criterio en orden a su clasificación, este es en atención al grado de capacidad que demuestren para analizar cuestiones y resolver planteamientos. Con base a este aspecto, la IA se puede clasificar en tres clases: inteligencia artificial limitada o estrecha (ANI), inteligencia artificial genérica o general (AGI) y súper inteligencia artificial (ASI) 56. También existen otras posibles clasificaciones.

Por ello, en la actualidad, se configura una noción y clasificación legal más avanzada y completa respecto a los tipos de Sistemas de IA en el texto del Reglamento UE aprobado por el Parlamento Europeo el pasado 14 de junio de 2023 57. Con base a la misma, se hace hincapié en el nivel de riesgo para diferenciar las modalidades de IA que podría ser posible utilizar, en principio. Otras, por el contrario, quedarían excluidas o bien prohibidas de forma expresa, según este criterio. Así, conforme con la definición actual de “sistema de inteligencia artificial” —tal y como señala el citado texto normativo— se entiende por IA, aquel “Sistema de inteligencia artificial (sistema de IA)»: un sistema basado en máquinas diseñado para funcionar con diversos niveles de autonomía y capaz, para objetivos explícitos o implícitos, de generar información de salida —como predicciones, recomendaciones o decisiones— que influya en entornos reales o virtuales58.

De este modo, cabe apreciar que en el Ordenamiento ya se dispone de una definición legal y, a su vez, acorde con la planteada por otros organismos internacionales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE, 2019) 59. Asimismo, se aportan otras definiciones de interés con el fin de concretar aquellos términos empleados, por ejemplo, se precisa la noción de “Sistema de IA de uso general: un sistema de IA que puede utilizarse en aplicaciones muy diversas para las que no ha sido intencionada y específicamente diseñado, así como adaptarse a tales aplicaciones”.

En particular, en su tramitación, cabe significar las siguientes aportaciones realizadas por el Parlamento Europeo al texto inicial de la propuesta de Reglamento, las cuales, se resumen en los puntos expuestos a continuación: (a) se amplía su ámbito de aplicación; (b) se actualizan e incorporan definiciones, incluyendo la referencia a aspectos relevantes; (c) se dictan un principios rectores y presupuestos estructurales que han de regir todo tipo de IA y, además, (d) de forma específica se determina la regulación de los denominados “modelos fundacionales”, interpretando así que se trataría de “un modelo de sistema de IA entrenado con un gran volumen de datos, diseñado para producir información de salida de carácter general y capaz de adaptarse a una amplia variedad de tareas diferentes”. También, como novedad, es de interés (e) la revisión de aquellos sistemas de IA que quedan prohibidos y de alto riesgo; (f) se establece la obligación de informar sobre las propiedades y contenidos de los sistemas de IA generativa que se usen o de aquellas aplicaciones, productos o servicios basadas en ellos; (g) modificación del régimen administrativo sancionador y, por último, (h) se pretende fomentar las acciones de apoyo al emprendimiento en innovación.

3.3. La IA Generativa

Como ha sido avanzado, la IA Generativa supone un paso más en la evolución de la IA. Y, desde luego, muestra una gran proyección por el gran potencial que ofrece, siendo muy diversas sus posibilidades aplicativas. Este tipo de sistema de IA es capaz de crear y generar algo nuevo con base a los datos o modelos preexistentes. Esta sería su característica principal frente a otras IA tradicionales, ya que no solo sirve para obtener, procesar y analizar datos o elaborar simulaciones. Por ello, la IA generativa ha sido calificada como la última generación de IA. Por ejemplo, puede configurar textos, imágenes, música, etc. Por tanto, se trata de una herramienta de generación automática de contenidos audiovisuales o textos, cuyo resultado sería hiperrealista e, incluso, personalizado.

Con lo cual, en la práctica, también puede generar mayores problemas, amenazas o riesgos. Por ejemplo, podría suceder que ante un texto, imagen o video creado por esta modalidad de IA avanzada fuera difícil de diferenciar entre lo real y lo artificial; por tanto, sería complejo la verificación o determinación de la validez de documentos, contenidos u obras de distinto tipo, así como en lo relativo a la autoría de manifestaciones o testimonios de personas, cuya imagen, audio o expresión (escrita u oral) se originara o fuera resultado de IA, y no se tratara de algo genuino. En consecuencia, se plantearía una cuestión difícil de identificar, lo cual, pudiera conllevar eventuales conflictos —v.gr.— en orden a la posible atribución de autorías, validez de declaraciones o documentos, valoración de pruebas, etc. También, afectaría en lo relativo a la imputación de posibles responsabilidades derivadas de lo mencionado.

De igual modo, cabe pensar en las dificultades añadidas que pudieran plantearse ante procesos judiciales, en orden a la imputación de acciones o, en su caso, a la atribución de las correspondientes responsabilidades, civil, administrativa o penal, caso de comisión de ilícitos o delitos. Esto es, salvo que pudieran ser empleadas técnicas de peritaje especializado en cada caso.

De ahí, el que también los desafíos jurídicos que ahora —o a futuro— se plantean sean importantes 60, toda vez que podría afectar a derechos de la propiedad intelectual o industrial, o a otro tipo de intereses legítimos, amén de a la consideración o la validación de la genuina creatividad humana o, incluso, vulnerar derechos fundamentales, toda vez que en algunos supuestos pudiera vulnerar la dignidad de la persona, como derecho reconocido en el artículo 1 de la Carta de los Derechos Fundamentales de la Unión Europea, “La dignidad humana es inviolable. Será respetada y protegida”. Y, en el mismo sentido, se reconoce en nuestra Constitución Española, artículo 10.1., donde de forma expresa queda consagrada como derecho fundamental, “La dignidad de la persona, los derechos inviolables que le son inherentes, (…)”.

En la práctica, encontramos ejemplos de diferentes productos, aplicaciones y servicios relativos a este tipo de herramienta tecnológica, como la desarrollada por Google 61. Y, en la actualidad, cabe citar las nuevas herramientas creadas por la empresa OpenAI 62: el ChatGPT 63, GPT-3 y GPT-4 64, asimismo, otros productos más avanzados, como el DALL.3 65 también lanzado por dicha entidad empresarial. En síntesis, este tipo de herramientas “son capaces” de elaborar textos con autonomía, por tanto, se posibilita la configuración de datos sistematizados y la creación de algo “artificial” pero ya nuevo. Esto es, no solo se trataría de posibles reproducciones, pues, por ej., puede “crear” contenidos, elaborar o “generar” textos, relatos, ensayos, sumarios u otros contenidos u obras de distinto tipo, imágenes, videos, entre otras posibilidades 66.

La innovación tecnológica que ha permitido el avance de la IA Generativa, se explica por el desarrollo en 2021 —por la citada entidad tecnológica— de lo que se denomina CLIP (Contrastive Language-Image Pre-training) 67, un modelo de red neuronal artificial capacitada para percibir y aprender de forma eficiente a partir de múltiples datos o información vía imágenes y uso de patrones de lenguaje. A partir de distintas fuentes, por tanto, pueden crear nuevasimágenes u ofrecer soluciones/respuestas viables a lo demandado. Los promotores de la IA generativa apuntan que podría ayudar en el proceso creativo por cuanto la labor del creador (humano) sería completada vía IA o acelerar el proyecto creativo.

En definitiva, a modo de resumen, hay que diferenciar la nueva IA Generativa de la IA precedente o tradicional, toda vez que la primera muestra mayor capacidad y autonomía respecto a la segunda. Las diferencias quedan patentes, la IA tradicional, procesa, analiza datos y optimiza el aprendizaje automático, y la actual IA generativa puede, además, generar nuevos contenidos o crear. A su vez, la IA generativa agilizaría procesos y posibilita la simulación de resultados. Incluso, los nuevos productos en curso o que se desarrollaran a futuro, podría resolver formulas complejas o supuestos planteados, así como llegar a ofrecer soluciones o adoptar decisiones de forma autónoma, sí así fueran programadas o vía “su posible entrenamiento artificial”. Esto último, como es lógico, también incrementa los riesgos derivados del empleo de este tipo avanzado de tecnología.

4. Interés regulatorio: Innovación Jurídica europea

Conforme a lo descrito y ante el evidente dinamismo que mantiene el desarrollo tecnológico de la IA, resulta claro que es necesario contar con una regulación básica y común europea en esta materia. En este sentido, se observan las oportunidades que se abren, pero, de igual modo, se ha de operar de forma prudente y responsable, abordando los grandes desafíos que plantea el uso extensivo de la IA. 

Por ello, lo primero —a nuestro juicio— es adoptar una legislación común que ordene las bases normativas fundamentales. Ello, sin duda, parece lo necesario en interés general o colectivo y con carácter previo a cualquier acción promotora de la IA. Toda vez que el principio de prevención y buena gobernanza ha de regir, así como reforzar la debida tutela pública ante este fenómeno. Con todo, en estos momentos, se trata de promover el desarrollo de la IA y, a su vez, analizar los altos riesgos potenciales que supone, tanto para la seguridad como para los derechos de los ciudadanos. Así, reconociendo la importancia de lo señalado, la Comisión presentó una ambiciosa propuesta normativa para establecer un marco común regulatorio sobre la IA y un plan coordinado sobre la IA que ha sido posteriormente revisado, tal y como referenciamos en este estudio.

Queda patente que, conforme a lo expuesto, estamos ante un tema que debe ser abordado en profundidad. Asimismo, estimamos que el principio prevención ha de estar presente y, además, se ha de actuar con lógica cautela y máxima diligencia. En todo caso, como ha sido apuntado supra, es esencial contar con previo conocimiento y analizar cada tipo de sistema de IA que pudiera ser planteado o empleado. El contar con la debida información al respecto será crucial, para poder verificar la herramienta implementada, ponderando riesgos y coste/beneficio, así como planificar y gestionar adecuadamente los procesos y resultados. Estas tareas, por otra parte, no resultarán fáciles, dado que la transparencia informativa y la supervisión en este campo no siempre podría ser viable, según se pronostica y a tenor de algunos de los casos prácticos examinados. Por tanto, aunque se reconocen las posibles aportaciones positivas o facilitadoras de la IA, también deben tenerse en cuenta sus riesgos, siendo su tratamiento regulatorio algo esencial.

De ahí, se razona perfectamente el alto interés que adquiere el nuevo Reglamento UE sobre IA, ya que es la primera Ley que regirá el uso de sistemas de IA con carácter preceptivo y amplio ámbito de aplicación, incluso, con proyección internacional.

4.1. Contexto estratégico

Conforme al interés señalado, desde la UE se fomenta el empleo de la IA mediante varias acciones encaminadas de acuerdo con el enfoque estratégico trazado 68. Y, de forma paralela, se establece el Reglamento que ha de regir el uso de los Sistemas de IA “admitidos” —en principio— por el Ordenamiento. De este modo, en virtud del mismo, se establece la arquitectura legal básica que ha de ordenar esta materia. No obstante, hay que reconocer que en la práctica no será tarea fácil regular y “vigilar” el debido cumplimiento de esta normativa, aunque sí es nuclear contar con ella para generar mayor confianza y seguridad jurídica.

Con espíritu estratégico, opera la “Alianza europea de IA” 69, creada en 2018 a iniciativa de la Comisión Europea y con el objetivo de promover el dialogo abierto sobre esta cuestión y lograr la configuración del modelo común.

Son también prueba del ritmo acelerado que se sigue en este terreno, las últimas noticias publicadas: la Comisión y la Empresa Común Europea de Informática de Alto Rendimiento (Empresa Común EuroHPC) facilitarían el acceso amplio a “los recursos de supercomputación de categoría mundial de la UE para las empresas emergentes europeas de inteligencia artificial (IA), las pymes y la comunidad de IA en general, como parte de la Iniciativa de la UE para las empresas emergentes en materia de IA” 70. También, han sido adoptados otros acuerdos internacionales en el ámbito digital, según ha sido publicado, “La UE y Canadá ponen en marcha una asociación digital para reforzar la cooperación estratégica” 71.

4.2. Arquitectura legal compartida: novedades del Reglamento UE propuesto

El empleo de IA aún suscita debates éticos y jurídicos, como ya sucediera en el pasado con otras nuevas tecnologías. La Unión Europea pretende dar respuesta a esta cuestión —como ha sido expuesto—, consolidando enfoque común que posibilite avanzar en este tema. Además, a dicho fin, se interpreta que es fundamental contar con un marco regulatorio armonizado y aplicable en el mercado único europeo, garantizando la debida seguridad jurídica y el respeto a principios europeos. En especial, resultará prioritario la tutela pública de los derechos fundamentales. Al mismo tiempo, preocupa que lo mencionado pudiera implicar ciertas desventajas competitivas frente a otros Ordenamientos internacionales más flexibles o permisivos ante las diferentes clases o desarrollos de IA en curso o a futuro. Por tanto, regular esta cuestión es una labor compleja. No obstante, ha sido emprendida con gran impulso por las instituciones europeas que estiman muy necesario adoptar una “Ley Europa sobre IA” (Artificial Intelligence Act).

En 2021, la Comisión Europea presentó una propuesta de Reglamento UE en materia de inteligencia artificial 72: Reglamento europeo por la que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de inteligencia artificial o Artificial Intelligence Act). Y, cabe significar el texto aprobado por el Parlamento Europeo, el pasado 14 de junio de 2023 73, donde se introducen destacadas modificaciones 74, así como otras relativas a determinados actos legislativos de la Unión de 21 de abril de 2021.Con base a dicha normativa se pretende dotar a la Unión Europea de un sólido sistema jurídico básico que sirva de disciplina y, a su vez, posibilite promover una inteligencia artificial fiable, ética y segura. Este es, en síntesis, el buen propósito del legislador europeo, si bien, ahora queda por evaluar cuál será su efectividad una vez entre en vigor y sea aplicable el Reglamento UE.

Conviene en todo caso precisar que dicha propuesta normativa, en principio, no regula esta tecnología como tal o de forma íntegra, sino aquellas aplicaciones basadas en IA que han sido identificadas de alto riesgo 75. Con todo, esta “Ley europea de IA” sería pionera en esta materia. A continuación, en síntesis, se destacan sus principales aspectos, a saber:

Como Reglamento UE, será vinculante y directamente aplicable en todos los Estados miembros. El principal propósito, de este modo, es establecer una disciplina uniforme y común, la cual, además, podría tener proyección internacional, efectos más extensivos o globales. Si bien, en la práctica, aún quedarían algunos aspectos por desarrollar o concretar para lograr un entorno seguro y de confianza (lo que se conoce como “ecosistema de confianza”). Ello, cabe esperar que pueda ser a través de futura normativa.

La definición de “sistema de inteligencia artificial” ha sido actualizada en el Reglamento UE, tal y como se contiene en el texto aprobado por el Parlamento el 14 de junio de 2023, a saber, se entiende por IA aquel  “Sistema de inteligencia artificial (sistema de IA)»: un sistema basado en máquinas diseñado para funcionar con diversos niveles de autonomía y capaz, para objetivos explícitos o implícitos, de generar información de salida como predicciones, recomendaciones o decisiones— que influya en entornos reales o virtuales” 76.

De este modo, cabe apreciar que en la UE se dispone de una definición legal y, a su vez, acorde con la planteada por otros organismos internacionales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE, 2019) 77. Asimismo, se aportan otras definiciones de interés con el fin de concretar aquellos términos empleados, por ejemplo, se precisa la noción de “Sistema de IA de uso general: un sistema de IA que puede utilizarse en aplicaciones muy diversas para las que no ha sido intencionada y específicamente diseñado, así como adaptarse a tales aplicaciones”.

Además, es importante destacar que la regulación de la IA —o relativa a su empleo posible— se hace en base al nivel de riesgo previsto, diferenciando por tipología (riesgo significativo/riesgo alto, limitado o mínimo) y con respecto a los distintos sistemas de IA que serían posibles. Se prohíben otras modalidades por generar riesgos excesivos o que no fueran posibles de gestionar. En este sentido, con buen criterio preventivo, se trata de salvaguardar los valores de la UE, asimismo, proteger los derechos y libertades de la ciudadanía.

De este modo, de acuerdo con la clasificación prevista en la norma, se establecen determinados requerimientos de obligada observancia en cada caso, esto es, según cada nivel o grado de riesgo estimado, y de modo análogo al enfoque del vigente Reglamento General de Protección de Datos (RGPD) 78. Si bien, los deberes de información varían dependiendo de la aplicación de IA.

En particular, conforme al último texto del Reglamento, aprobado por el Parlamento Europeo el pasado 14 de junio de 2023 79, cabe significar —en síntesis— las siguientes aportaciones realizadas al texto inicial de la propuesta de Reglamento:

  1. Regula el uso de sistemas de IA. Ahora bien, cabe puntualizar que no se trataría de regular la IA, en sentido estricto.
  2. Amplía su ámbito de aplicación, como ha sido detallado supra.
  3. Se actualizan e incorporan definiciones, incluyendo la noción de IA —precitada en este trabajo— y las relativas a otros aspectos relevantes, como es la identificación de los sistemas de IA por nivel de riesgo y, por otro lado, el concepto de “modelo fundacional”. Esto resulta muy útil para poder clasificar las modalidades de IA y saber a qué clase o sistema pertenece cada herramienta de IA usada (por ej., en el caso de “productos” de IA generativa, como ChatGPT u otros posibles, Bing Chat, Bard o LLaMA). También, otras nociones son precisadas, por ej., “riesgo”, “riesgo significativo”, “sistema de IA de uso general”, “identificación biométrica”, “ultrafalsificación” (o “deep fake”), “espacio controlado de pruebas” (o “sandbox”), entre otros términos que resultaba preciso concretar y dotar de mayores especificaciones a efectos normativos. Esto es, como sabemos, el disponer de nociones legales adecuadas resulta esencial para su interpretación y, por ende, es de interés en aras de la seguridad jurídica.
  4. La determinación de los sistemas IA prohibidos. Esta aportación resulta fundamental para guiar el uso positivo de la IA. De este modo, para señalar estacuestión se atiende al criterio del nivel de riesgo evaluable o estimado, según —por ej.— pudiera afectar a derechos fundamentales. Este es, en cualquier caso, un aspecto muy polémico por los eventuales efectos adversos derivados del empleo de algunos tipos de herramientas IA, Cabe pensar, por ejemplo, en el caso de aplicaciones usadas para la identificación biométrica en zonas públicas u otros empleables para monitorizar actuaciones de control masivo, u otros sistemas que pudieran interpretar conductas o emociones de las personas, entre otras posibilidades. En consecuencia, el legislador europeo al prohibir determinados sistemas de IA trataría de garantizar el respeto a los principios y derechos consagrados por la Carta de los Derechos Fundamentales de la Unión Europea. Por tanto, en la actualidad, se estima como novedad muy relevante la revisión efectuada de los sistemas de IA que son de alto riesgo y la determinación de aquellos prohibidos.
  5. Se dictan unos principios rectores y presupuestos estructurales que han de regir todo tipo de IA.
  6. Además, de forma específica se regulan los denominados “modelos fundacionales”, interpretando bajo esta noción aquel “modelo de sistema de IA entrenado con un gran volumen de datos, diseñado para producir información de salida de carácter general y capaz de adaptarse a una amplia variedad de tareas diferentes”.
  7. Se dicta la obligación de informar sobre las propiedades y contenidos de los sistemas de IA generativa que se usen o de aquellas aplicaciones, productos o servicios basadas en ellos.
  8. También se modifica el régimen administrativo sancionador con respecto al inicialmente previsto en la propuesta de la Comisión.
  9. Por último, quedarían previstas acciones para fomentar el emprendimiento en innovación, vía las posibles medidas de apoyo que sean habilitadas.

Por lo que respecta al ámbito de aplicación del Reglamento, uno de los aspectos más debatidos e importantes que deberá tenerse en cuenta, es lo relativo al ámbito subjetivo del mismo. Al respecto, cabe señalar que quedarían sujetos a dicho régimen —a tenor del texto aprobado por el Parlamento Europeo— distintos operadores, tanto los proveedores como los implementadores de sistemas de IA cuando el resultado de su empleo sea en la UE. En consecuencia, se infiere que esta legislación europea podría ser también aplicable a importadores o distribuidores de esta tecnología que no fueran europeos, vía sus agentes autorizados o representantes en la UE.

Por último, en nuestro país y en relación a esta materia, cabe realizar una breve referencia a la normativa vigente relacionada, como es el Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (BOE núm. 268, de 9 de noviembre de 2023), dictado de conformidad con la Estrategia Nacional de Inteligencia Artificial (ENIA) 80 y, por otro lado, la Ley 15/2022 de 12 de julio, integral para la igualdad de trato y la no discriminación (ex art. 23) 81, aproximando la regulación positiva del uso de IA por lo que respecta a las Administraciones pública y empresa. No obstante, cabe puntualizar que esta última tendría un carácter meramente declarativo o programático, como ha sido señalado 82.

5. Conclusión

A modo de corolario del estudio realizado, cabe reconocer las amplias posibilidades que abre o conlleva el uso de sistemas de IA en distintos ámbitos, tal y como ha sido referenciado. Si bien, en la práctica y antes de admitir su posible implementación, conviene primero disponer de mayor información e identificar cada tipo de sistema empleado, producto o aplicación, evaluando cada supuesto y su posible impacto, así como ponderar el nivel de riesgo.

Por tanto, ante los avances tecnológicos y el desarrollo de nuevas modalidades de IA, actuales o futuras, se deberá disponer de la necesaria información y, además, contar con oportunas coberturas para asegurar o responder ante los eventuales riesgos que pudieran acontecer. Así, cabe señalar que el tratamiento o gestión del riesgo es un aspecto clave ante esta tecnología en pleno desarrollo.

Sumado a ello, desde la perspectiva técnica y jurídica, cabe insistir en el deber de transparencia informativa, de igual modo en lo relativo a reforzar la tutela pública de los derechos fundamentales y otros derechos o intereses jurídicos dignos de protección.

La formación y capacitación cualificada de profesionales y gestores resultará fundamental. Es un hecho que estamos ante una tecnología emergente y cuyo posicionamiento se incrementa. Por lo cual, se deberá hacer mayor hincapié en promover la cultura del dato. Y, en particular, se deberá prestar especial atención a dos materias interrelacionadas a estos efectos, como son la gestión de datos y la gestión de riesgos. Estas disciplinas suponen un valor añadido al conocimiento jurídico, toda vez que son principales hoy. De este modo, convendrá su consideración para adoptar un adecuado enfoque preventivo y en orden al tratamiento óptimo de esta cuestión, siendo lo citado clave a efectos prácticos.

Con todo, lo cierto es que la IA es una realidad y, además, su implementación está siendo impulsada argumentando sus múltiples aplicaciones o las oportunidades que ofrece en distintos ámbitos. A nuestro juicio, esta cuestión exige ir más allá, no solo se trata de observar las posibles utilidades de la IA, pues, su aplicación exige ser evaluada en cada caso, valorando los posibles beneficios y costes. En este sentido, podría ser conveniente analizar con detalle varios factores, en especial, los riesgos en atención al sistema de IA empleado, la actividad o servicio donde se aplica, los operadores responsables y las condiciones que concurren en cada supuesto concreto, entre otras circunstancias.

Debemos estar preparados para afrontar los nuevos desafíos que se plantean. En este sentido, desde la perspectiva jurídica y docente parece fundamental aproximar el conocimiento en este terreno, orientar programas formativos y proyectos de innovación docente que resulten facilitadores y viables. Asimismo, en aras de contribuir o guiar los procesos de aprendizaje responsable, será necesario hacer hincapié en el empleo positivo, ético, lícito y diligente de los recursos o nuevos medios tecnológicos disponibles.

En la actualidad, se conocen las posibilidades de la IA actual y la IA Generativa —como ha sido expuesto en el presente estudio—, en virtud de la cual, es posible la creación automatizada de distintos tipos de contenidos (textos u obras audiovisuales, etc.). Pero, no hay que olvidar que también existen amenazas o riesgos que, en especial, conviene prevenir como son los referenciados en este trabajo. En este sentido, se significan las importantes implicaciones jurídicas que conlleva el uso de estas herramientas, por lo cual, no es un tema baladí. Así pues, debemos estar atentos, toda vez que hay aplicaciones actuales que —por ejemplo— de forma automática o sin requerir apenas la participación humana, pueden generar documentos, testimonios, noticias u otras informaciones que no siempre sería fácil de verificar si son genuinas o auténticas, ni identificar su posible fuente o autoría (si es humana o es artificial). Los recientes avances en IA generativa que han sido desarrollados y se implementan en el presente —siendo el más conocido por el público, el ChatGPT, entre otros productos más recientes—, pueden producir textos o recrean imágenes, audios o voces muy similares o idénticas a las humanas. Por ello, queda patente que el riesgo potencial que presenta su uso extensivo, máxime ante las nuevas aplicaciones o desarrollos de IA que pudieran surgir a corto o medio.

Por consiguiente, se debe reflexionar sobre este tema en profundidad, pues, son destacados los desafíos jurídicos, éticos y sociales, así como económicos que se plantean. Advertido lo anterior, ahora también esta cuestión ha de ser abordada en los distintos entornos académicos y educativos. Incluso, cabe agregar que esta también puede ser una buena oportunidad para insistir en el imprescindible papel que desempeña el docente, toda vez que el modelo de docencia genuina, física o presencial pueda adquirir mayor valor frente al modelo digital o aquellas actividades o procesos excesivamente digitalizados. Por otra parte, no se ignora que la aplicación de esta tecnología como recurso complementario o de apoyo en algunas disciplinas puede ofrecer nuevas oportunidades para innovar y facilitar procesos de aprendizaje creativos y motivadores.

En todo caso, estimamos que es fundamental disponer de una legislación común europea que pueda ser eficaz y aporte las debidas garantías, lo cual, se espera que así suceda con el Reglamento UE previsto sobre el uso de IA.

6. Bibliografía

AGENCIA ESPAÑOLA DE PROTECCIÓN DE DATOS, AEPD (2020): “Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción.” https://www.aepd.es/documento/adecuacion-rgpd-ia.pdf.

AGENCIA ESPAÑOLA DE PROTECCIÓN DE DATOS, AEPD (2023): “Inteligencia Artificial: Sistema vs. tratamiento, medios vs. Finalidad”, 10 de abril, https://www.aepd.es/prensa-y-comunicacion/blog/inteligencia-artificial-sistema-vs-tratamiento-medio-vs-finalidad.

AGUDELO, C.A. (2022): “El Chat GPT y las reflexiones de un investigador escéptico”, Jurídicas,  Vol. 19, N.º 2, pp. 7-17.

ALAMILLO DOMINGO, I. (2017): “La regulación de la tecnología: La superación del modelo papel como elemento de transformación digital innovadora”, en I. Martín Delgado (Dir.), La reforma de la administración electrónica: una oportunidad para la innovación desde el derecho. Instituto Nacional de Administración Pública, Madrid. pp. 79-130.

ANDRÉS AUCEJO, E. Y RAMÓN, F. (2023): “Inteligencia Artificial: “chat GPT” versus la Ley y el Derecho. Jaque al derecho de la propiedad intelectual”, Revista de educación y derecho, N.º 28.

ARENAS RAMIRO, M. (2023): “ChatGPT is coming…”, La Ley privacidad,  N.º 15, 2023.

AYUSO, S., Y PASCUAL, M.G. (2023): “Europa quiere poner más obligaciones a la inteligencia artificial generativa como lade ChatGPT”, El País, 11 mayo, https://is.gd/lQNRia.

BARRIO ANDRÉS, M. (2023): “ChatGPT y su impacto en las profesiones jurídicas”, Carta tributaria. Revista de opinión, N.º 99.

BARRIO ANDRÉS, M. (2023): “ChatGPT y su impacto en las profesiones jurídicas”, Diario La Ley,  N.º 10289.

BENDER, E.M. (2022): “Human-like programs abuse our empathy: even Google engineers aren’t immune”, The Guardian, 14 junio, https://is.gd/rAUdbF.

BHARGAVA, C., Y SHARMA, P.K., EDS. (2022): Artificial intelligence: fundamentals and applications. CRC Press.

BODEN, M.A. (2018): Artificial intelligence: a very short introduction. Oxford University Press.

BOIX PALOP, A. Y COTINO HUESO, L., COORDS. (2019): “Análisis monográfico. Derecho Público, derechos y transparencia ante el uso de algoritmos, inteligencia artificial y big data”, Revista General de Derecho Administrativo, N.º 50.

BOUCHER, P. (2020): Artificial intelligence: how does it work, why does it matter, and whatcan we do about it?. Servicio de Estudios del Parlamento Europeo, https://doi.org/10.2861/44572.

CAPDEFERRO VILLAGRASA, O, Y PONCE SOLÉ, J. (2022): “Nudging e inteligencia artificial contra la corrupción en el sector público, posibilidades y riesgos”, Revista Digital de Derecho Administrativo, N.º 28, pp. 225-258. Texto disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=8474394.

CÁRCAR BENITO, J.E. (2019): “La inteligencia artificial (IA): aplicación jurídica y regulación de los servicios de salud”, Comunicaciones Vol. 29 Extraordinario XXVIII Congreso 2019, en: https://www.ajs.es/sites/default/files/2020-10/vol29Extra_02_14_Comunicaci%C3%B3n.pdf.

CÁRCAR BENITO, J.E. (2021): “La inteligencia artificial (IA) como aplicación jurídica y razonable: la cuestión sanitaria”, IUS ET SCIENTIA, 7(1), pp. 250-285, https://doi.org/10.12795/IETSCIENTIA.2021.i01.14

CERRILLO I MARTÍNEZ, A (2019): “El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?”, Revista General de Derecho Administrativo, N.º 50.

COMISIÓN EUROPEA (2023): “Inteligencia artificial: preguntas y respuestas”, 12.12.2023, https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683.

DAVENPORT, T.H., Y MITTAL, N. (2022) (2022): “How generative AI is changing creative work”, Harvard Business Review, 14 septiembre, https://is.gd/by7hQt.

DOMÍNGUEZ ÁLVAREZ, J.L. (2021): “Inteligencia Artificial, derecho administrativo y protección de datos personales. Entre la dignidad de la persona y la eficacia administrativa”, US ET SCIENTIA, Vol. 7, N,º 1, https://revistascientificas.us.es/index.php/ies/article/view/16146/15167.

DOMÍNGUEZ ÁLVAREZ, J.L., DIR. (2023): Tratado de protección de datos personales: pasado, presente y futuro de la tutela jurídica de los derechos de la privacidad. COLEX, Constitución y Leyes, Madrid. 

DOMÍNGUEZ ÁLVAREZ, J.L. Y TERRÓN SANTOS, D., DIRS. (2023): Desafíos éticos, jurídicos y tecnológicos del avance digital. Iustel, Madrid. 

DOPAZO FRAGUÍO, P. (2018): “La protección de datos en el derecho europeo: principales aportaciones doctrinales y marco regulatorio vigente. (Novedades del Reglamento General de Protección de Datos)”, REDE. Revista española de derecho europeo, N.º 68, pp.113-148.

DOPAZO FRAGUÍO, P. (2019): “Data protection and digital rights: the architecture of the new regulatory binomy”, Derecom,  N.º 26, pp. 17-48.

DOPAZO FRAGUÍO, P. (2022): “El nuevo reglamento europeo para la gobernanza del dato: ¿Liberación segura de información y neutralidad de su tratamiento?”, REDE Revista española de derecho europeo, N.º 82, pp. 115-166.

FERNÁNDEZ HERNÁNDEZ, C. (2023): “La Ley 15/2022 introduce la primera regulación positiva de la inteligencia artificial en España”, DiarioLaLey (Ciberderecho), de 13/07/2022, https://diariolaley.laleynext.es/dll/2022/07/13/la-ley-15-2022-introduce-la-primera-regulacion-positiva-de-la-inteligencia-artificial-en-espana.

FERNÁNDEZ MOYA, J. Y GARMENDIA PRIETO, A. (2023): “Negligencia grave por el uso de la Inteligencia Artificial. ¿Están nuestras pólizas preparadas?”, Observatorio de Gerencia de Riesgos (AGERS) N.º 17, enero-junio 2023, pp. 16-17, https://agers.es/wp-content/uploads/2023/07/REVISTA-OBSERVATORIO-No17.pdf.

FLORIDI, L. Y CHIRIATTI, M. (2020): “GPT-3: Su naturaleza, alcance, límites y consecuencias”, Mentes y máquinas, 30 (4), pp. 681-694. https://doi.org/10.1007/s11023-020-09548-1.

FRANGANILLO, J. (2023): “La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos”, Methaodo, revista de ciencias sociales, 11(2), m231102a10. http://dx.doi.org/10.17502/mrcs.v11i2.710.

GAO, J. (2021): “Explorando la calidad de la retroalimentación de un sistema automatizado de evaluación de escritura Pigai”, Revista internacional de tecnologías emergentes en el aprendizaje (iJET), 16(11), pp. 322-330, https://doi.org/10.3991/ijet.v16i11.19657.

GAO, C.A; HOWARD, F.M.; MARKOV, N.S.; DYER, E.C.; RAMESH, S.; LUO, Y. Y PEARSON, A.T. (2022): “Comparación de resúmenes científicos generados por ChatGPT con resúmenes originales utilizando un detector de salida de inteligencia artificial, un detector de plagio y revisores humanos cegados”, bioRxiv.  https://doi.org/10.1101/2022.12.23.521610.

GARCIMARTÍN C.; QUINTÁNS-EIRAS, M.R. Y  CARRIL VÁZQUEZ, X.M. (2023): Clínicas jurídicas: otra forma de aprender la experiencia en España, Italia y Estados Unidos. Aranzadi, Navarra.

GARCÍA-JIMÉNEZ, E. (2015): “La evaluación del aprendizaje: de la retroalimentación a la autorregulación. El papel de las tecnologías”, RELIEVE Revista Electrónica de Investigación y Evaluación Educativa, 21(2). https://doi.org/10.7203/relieve.21.2.7546.

GARCÍA-VALDECASAS RODRÍGUEZ DE RIVERA, P. (2022): (2022): Blockchain y automatización de procedimientos en la Administración pública. Wolters Kluwer, Madrid.

GIANNINI, S. (2023): Generative AI and the future of education, UNESCO, https://is.gd/CbhGO5.

GIERL, M.; LATIFI, S.; LAI, H., BOULAIS, A. Y CHAMPLAIN, A. (2014): “Puntuación automatizada de ensayos y el futuro de la evaluación educativa en la educación médica”, Educación médica, 48(10), pp. 950-962. https://doi.org/10.1111/medu.12517.

GOW, G. (2023): “Estos son los cinco principales peligros en la era de la IA y ChatGPT”, FORBES España, 10 abril 2023, https://forbes.es/tecnologia/260702/estos-son-los-cinco-principales-peligros-en-la-era-de-la-ia-y-chatgpt/.

GRANERS, E. (2023): “Chat GPT en la educación: ¿Hacia dónde vamos?”, Revista DIM: Didáctica, Innovación y Multimedia,  N.º 41, 2023. https://ddd.uab.cat/record/275779.

GUERRERO-SOLÉ, F. Y BALLESTER, C. (2023): “The impact of Generative Artificial Intelligence on the discipline of communication”, Hipertext.net: Revista Académica sobre Documentación Digital y Comunicación Interactiva. Disponible en: https://www.raco.cat/index.php/Hipertext/article/view/416518.

HERN, A. (2022): “El robot de inteligencia artificial ChatGPT sorprende a los académicos con sus habilidades de redacción de ensayos y su usabilidad”, The Guardian de 4/12/20222, en: https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-with-essay-writing-skills-and-usability

IEEE (2021): “Huellas dactilares artificiales para modelos generativos: arraigando la atribución deepfake en los datos de entrenamiento”, Conferencia internacional IEEE/CVF 2021 sobre visión por computadora (ICCV), Canadá. 10.1109/ICCV48922.2021.01418.

LACRUZ MANTECÓN, M.L. (2023): “Regreso a Bletchley Park: ¿Es la Inteligencia Artificial una innovación segura?”, Diario La Ley, N.º 78, Sección Ciberderecho, 17 de noviembre, https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAEWQTW-DMAyGf01znKCwjx5yKXBgoh20bOpOkwELomUJihO2_vu5rbRZsiXbrx_Z9tCRTBMBvQ-gc9.

LACRUZ MANTECÓN, M.L. (2022), “La deslocalización de la Inteligencia”, Diario La Ley (Ciberderecho),N.o 62,(Ciberderecho), 20 de mayo.  

LACRUZ MANTECÓN, M.L. (2021): Inteligencia Artificial y Derecho de Autor.  Fundación AISGE Reus, Madrid 2021.

LENGUA CANTERO, C.; BERNAL OVIEDO, G.; FLÓREZ BARBOZA, W.; Y VELANDIA FERIA, M. (2020): “Tecnologías emergentes en el proceso de enseñanza-aprendizaje: hacia el desarrollo del pensamiento crítico”, Revista Electrónica Interuniversitaria de Formación del Profesorado, 23(3), pp. 83-98, https://doi.org/10.6018/reifop.435611.

LÓPEZ ESPADAFOR, C.M., DIRS. (2023): Elementos de innovación docente en ciencias sociales, jurídicas y otras disciplinas con contenido normativo. Dykinson, Madrid.

LÓPEZ GALISTEO, A.J.; MONTES DÍEZ, R. Y RODRÍGUEZ CALZADA, L. (2023): “Guía para potenciar el aprendizaje activo e interactivo en el aula universitaria”. Universidad Rey Juan Carlos, Madrid, https://burjcdigital.urjc.es/handle/10115/22149.

LOPEZOSA, C. Y CODINA, LL. (2023): “Probando Bard, así funciona la Inteligencia Artificial Generativa de Google”, Anuario ThinkEPI,  Vol. 17, Vol. 1.

MARR, B. (2023): “Estos son los 15 mayores riesgos de la IA”, FORBES, España, 23 julio 2023, https://forbes.es/tecnologia/316482/estos-son-los-15-mayores-riesgos-de-la-ia/.

MARTÍNEZ ESPÍN, P. “La propuesta de marco regulador de los sistemas de inteligencia artificial en el mercado de la UE”, Revista CESCO de Derecho de Consumo, N.º 46, doi.org/10.18239/RCDC_2023.46.3322 (p. 4).

MARTÍNEZ GUTIÉRREZ, R. “La interoperabilidad como factor clave y estructural en la internacionalización de la contratación pública”, Contratación administrativa práctica: revista de la contratación administrativa y de los contratistas, N.º 159, p.12.

MARTÍNEZ GUTIÉRREZ, R. (2021): “Inteligencia artificial, algoritmos y automatización en la Justicia. Propuestas para su efectiva implantación”, Práctica de tribunales: revista de derecho procesal civil y mercantil, N.º 149, 2021.

MARTÍNEZ GUTIÉRREZ, R. (2012): “Servicio público electrónico y responsabilidad”, Revista española de derecho administrativo, N.º 155, pp. 291-318.

MIAO, F.; HOLMES, W.; RONGHUAI HUANG Y HUI ZHANG (2021): Inteligencia artificial y educación: guía para las personas a cargo de formular políticas. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000379376.

MIRANZO DÍAZ, J. (2020): “Inteligencia artificial y contratación pública”, en Martín Delgado, I. y Moreno Molina, J.A. (Dirs.), Administración electrónica, transparencia y contratación pública. Iustel, Madrid, pp.105-142.

MOLTÓ BERENGUER, J. ET AL. (2023): “ChatGPT: ¿nuestro enemigo o nuestro aliado?”, en Satorre Cuerda, R. (Coord.), REDES-INNOVAESTIC 2023. Libro de actas, Universidad de Alicante. (116, p. 314), https://rua.ua.es/dspace/bitstream/10045/134781/1/XARXES-INNOVAESTIC_2023_Llibre_dActes.pdf.

OCDE (2019): “Cuarenta y dos países adoptan los Principios de la OCDE sobre Inteligencia Artificial”. París, 22-5-2019, https://www.oecd.org/espanol/noticias/cuarentaydospaisesadoptanlosprincipiosdelaocdesobreinteligenciaartificial.htm.

OPENAI (2020): “A robot wrote this entire article: are you scared yet, human?”, The Guardian, de 8 septiembre, https://is.gd/CLk6NQ.

ORDELÍN FONT, J.L. (2023): “La piratería de la inteligencia artificial. El uso de las obras en el entrenamiento de modelos de ia generativos”, Actas de derecho industrial y derecho de autor,  Tomo 43, pp. 185-205.

PASCUAL OGUETA, M.T. (2023): “ChatGPT: ¿Herramienta para tod@s?”, Bit, N.º 227, pp. 60-61, https://www.coit.es/sites/default/files/bit227.pdf.

PÉREZ CANO, F.D.;  JIMÉNEZ DELGADO, J.J. Y PARRA CABRERA, G. (2023): “Inteligencia artificial en la Educación Superior, ingeniería informática”, en Martín García, A., Mateu Gordon, J.L. y Guede Cid, R. (coords.), Construyendo la educación del futuro en áreas de ingeniería, economía y STEM. Universidad de Jaén, 2023. pp. 54-66. Texto disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=9196474.

PIÑAR MAÑAS, J.L. (2020): “Protección de datos: Las claves de un derecho fundamental imprescindible”, El Cronista del Estado Social y Democrático de Derecho,  N.º 88-89, 2020 (Ejemplar dedicado a: Protección de datos: antes, durante y después del coronavirus), pp. 6-19.

PIÑAR MAÑAS, J.L. (2011): “Revolución tecnológica, nueva administración y derechos fundamentales”, DIXI,  N.º 13, 2011, pp. 8-32.

PIÑAR MAÑAS, J.L. (2018): “Derecho. Ética e innovación tecnológica”, Revista española de derecho administrativo, N.º 195, pp. 11-30.

RODRÍGUEZ GUTIÉRREZ, (2023): “ChatGPT en modo archiveroLa utilización de IA en los procesos archivísticos”, Archivamos: Boletín ACAL,  N.º 128, 2023, pp. 32-34.

RUSSELL, S.J. Y NORVIG, P. (1995): Artificial intelligence. A modern approach. Englewood Cliffs, New Jersey: Prentice Hall, coop., Estados Unidos. 1ª edición.

RUSSELL, S.J. Y NORVIG, P.. (2004): Inteligencia artificial. Un enfoque moderno, Pearson Educación, S.A., España. 2ª edición. https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf.

SCHOMER, A. (2023): “Entertainment industry has high anxiety about generative AI: survey”, Variety VIPIntelligence Platform, 6 de julio, https://variety.com/vip/generative-ai-survey-entertainment-industry-anxiety-jobs-1235662009/.

SIMÓ SOLER, E. (2023): “Retos jurídicos derivados de la Inteligencia Artificial Generativa”, Indret: Revista para el Análisis del Derecho, N.º 2, https://indret.com/retos-juridicos-derivados-de-la-inteligencia-artificial-generativa/.

TERRÓN SANTOS, D. (2021): “Inteligencia (artificial) y algo más”, en Terrón Santos, D. y Domínguez Álvarez, J.L. (Dirs.), Inteligencia artificial y defensa: nuevos horizontes. Thomson Reuters Aranzadi, Cizur Menor, 2021. pp. 25-43.

TERRÓN SANTOS, D.; DOMÍNGUEZ ÁLVAREZ, J.L. Y FERNANDO PABLO, M.M. (2020): “Los derechos fundamentales de la privacidad: derecho y necesidad en tiempo de crisis”. Revista General de Derecho Administrativo,  N.º 55, 2020 (Ejemplar dedicado a: Análisis Monográfico. Retos jurídicos de la cooperación transfronteriza).

TORRES DÍAZ, M.C. (2023): “El ensayo académico como instrumento de aprendizaje en Derecho Constitucional en la época del ChatGPT”, Universidad de Alicante. Instituto de Ciencias de la Educación, jun-2023, http://hdl.handle.net/10045/134781.

UNESCO (2019): Beijing Consensus on Artificial Intelligence and Education, International Conference on Artificial Intelligence and Education, Planning Education in the AI Era: Lead the Leap, Beijing, 2019, https://unesdoc.unesco.org/ark:/48223/pf0000368303.

UNESCO (2020): Recommendation on the Ethics of Artificial Intelligence. UNESCO, Paris. https://unesdoc.unesco.org/ark:/48223/pf0000373367.

UNESCO (2023): “La IA y el Estado de Derecho: Fortalecimiento de capacidades para los sistemas judiciales”, https://www.unesco.org/es/artificial-intelligence/rule-law/mooc-judges.

UNESCO (2023): “ChatGPT e Inteligencia Artificial en la Educación Superior. Guía de inicio rápido”, Código de Documento: ED/HE/IESALC/IP/2023/12. https://www.iesalc.unesco.org/wp-content/uploads/2023/04/ChatGPT-e-Inteligencia-Artificial-en-la-educacio%CC%81n-superior-Gui%CC%81a-de-inicio-ra%CC%81pido_FINAL_ESP.pdf.

WTW y Clyde & Co LLP (2023): “2023 Global Directors’ and Officers’ Liability Survey Report”, https://www.clydeco.com/en/reports/2023/03/directors-and-officers-liability-insurance-survey.

YBARRA MALO DE MOLINA, B. (2019): “Responsabilidades en el ámbito cibernético”, en Monterroso Casado, E. (Dir.): Inteligencia artificial y riesgos cibernéticos. Responsabilidades y aseguramiento. Tirant lo Blanch, Valencia. pp. 239-296.


1 En este sentido, se pone de manifiesto las implicaciones jurídicas que conlleva el uso de la IA. Entre otros autores, Barrio Andrés, M. (2023): “ChatGPT y su impacto en las profesiones jurídicas”, Carta tributaria. Revista de opinión, N.º 99, 2023. Barrio Andrés, M. (2023): “ChatGPT y su impacto en las profesiones jurídicas”, Diario La Ley,  N.º 10289, 2023. Boix Palop, A. y Cotino Hueso, L., Coords. (2019): “Análisis monográfico. Derecho Público, derechos y transparencia ante el uso de algoritmos, inteligencia artificial y big data”, Revista General de Derecho Administrativo, N.º 50. Miranzo Díaz, J. (2020): “Inteligencia artificial y contratación pública”, en Martín Delgado, I. y Moreno Molina, J.A. (Dirs.), Administración electrónica, transparencia y contratación pública, pp.105-142. Cerrillo i Martínez, A. (2019): “El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?”, Revista General de Derecho Administrativo, N.º 50. Lacruz Mantecón, M.L. (2021): Inteligencia Artificial y Derecho de Autor. Fundación AISGE-Reus, Madrid 2021.

2 Sobre esta consideración, vid., López Espadafor, C.M., Dirs. (2023): Elementos de innovación docente en ciencias sociales, jurídicas y otras disciplinas con contenido normativo. Dykinson, Madrid. Moltó Berenguer, J. et al. (2023): “ChatGPT: ¿nuestro enemigo o nuestro aliado?”, en Satorre Cuerda, R. (Coord.), REDES-INNOVAESTIC 2023. Libro de actas, Universidad de Alicante. (116, p.314), c.

3 Miranzo Díaz, J. (2020): “Inteligencia artificial y contratación pública”, en Martín Delgado, I. y Moreno Molina, J.A. (Dirs.), Administración electrónica, transparencia y contratación pública, pp.105-142. De hecho, también otras nuevas herramientas tecnológicas han sido incorporadas, conforme al actual proceso de transformación digital de la Administración pública, véase al respecto la obra de García-Valdecasas Rodríguez De Rivera, P. (2022): Blockchain y automatización de procedimientos en la Administración pública. Wolters Kluwer, Madrid.

4 Al respecto, por ejemplo, vid, Capdeferro Villagrasa, O, y Ponce Solé, J. (2022): “Nudging e inteligencia artificial contra la corrupción en el sector público, posibilidades y riesgos”, Revista Digital de Derecho Administrativo,  N.º 28, pp. 225-258. Texto disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=8474394

5 Nótese como los riesgos detectados afectarían a distintos ámbitos y sectores, por lo que ya desde distintas fuentes, medios de información y comunicación, también se advierte al respecto. Por ejemplo, vid., entre otras fuentes, Gow, G. (2023): “Estos son los cinco principales peligros en la era de la IA y ChatGPT”, FORBES España, 10 abril 2023, https://forbes.es/tecnologia/260702/estos-son-los-cinco-principales-peligros-en-la-era-de-la-ia-y-chatgpt/; Marr, B. (2023) “Estos son los 15 mayores riesgos de la IA”, FORBES, España, 23 julio 2023, https://forbes.es/tecnologia/316482/estos-son-los-15-mayores-riesgos-de-la-ia/

6 En especial, preocupa esta cuestión por lo que respecta la posible vulneración de derechos fundamentales. Por lo cual, se alerta sobre las posibles amenazas o peligros que derivan del uso de la IA, y se debe vigilar el empleo de este tipo de herramientas, así como aplicar adecuados sistemas de tratamiento y/o gestión de riesgos, la protección de datos (personales o no) y otro tipo de información resulta principal. Así, entre otros riesgos, cabe citar los relativos a derechos fundamentales, privacidad o protección de datos personales. Al respecto, la guía elaboradora por la Agencia Española de Protección de Datos, AEPD (2020): “Adecuación al RGPD de tratamientos que incorporan Inteligencia Artificial. Una introducción.“ https://www.aepd.es/documento/adecuacion-rgpd-ia.pdf. AEPD (2023): “Inteligencia Artificial: Sistema vs. tratamiento, medios vs. Finalidad”, 10 de abril, https://www.aepd.es/prensa-y-comunicacion/blog/inteligencia-artificial-sistema-vs-tratamiento-medio-vs-finalidad

7 Ybarra Malo de Molina, B. (2019): “Responsabilidades en el ámbito cibernético”, en Monterroso Casado, E. (Dir.): Inteligencia artificial y riesgos cibernéticos. Responsabilidades y aseguramiento. Tirant lo Blanch, Valencia. pp. 239-296. En esta obra colectiva, asimismo, son de interés al respecto los trabajos de otros autores. Y, en sentido amplio, reconociendo los riesgos y amenazas de la IA, véase Comisión Europea (2023): “Inteligencia artificial: preguntas y respuestas”, 12.12.2023, en: https://ec.europa.eu/commission/presscorner/detail/es/qanda_21_1683

8 Martínez Espín, P. (2023): “La propuesta de marco regulador de los sistemas de inteligencia artificial en el mercado de la UE”, Revista CESCO de Derecho de Consumo, N.º 46, doi.org/10.18239/RCDC_2023.46.3322 (p. 4).

9 Por ejemplo, entre otros eventuales riesgos o posibles amenazas, se indican las siguientes: “el robo de datos sensibles, el espionaje corporativo, la difusión de información falsa, la suplantación de identidad y la manipulación de contenido multimedia, entre otros”, vid., al respecto, WTW y Clyde & Co LLP (2023): “2023 Global Directors’ and Officers’ Liability Survey Report”, https://www.clydeco.com/en/reports/2023/03/directors-and-officers-liability-insurance-survey. Por lo cual, nótese que desde la Asociación Española de Gerentes de Riesgos (AGERS), se informa a los profesionales y, en concreto, “Se pide a los gerentes de riesgos un impulso sobre los riesgos de AI”, comunicación publicada el 3 de marzo de 2022, https://agers.es/noticias/riesgos/se-pide-a-los-gerentes-de-riesgos-un-impulso-sobre-los-riesgos-de-ai/. Sobre esta cuestión y su impacto, también cabe citar, Fernández Moya, J. y Garmendia Prieto, A. (2023): “Negligencia grave por el uso de la Inteligencia Artificial. ¿Están nuestras pólizas preparadas?”, Observatorio de Gerencia de Riesgos (AGERS) N.º 17, enero-junio 2023, pp. 16-17, https://agers.es/wp-content/uploads/2023/07/REVISTA-OBSERVATORIO-No17.pdf

10 En particular, ha sido observado el impacto producido por la aplicación de la IA generativa, Barrio Andrés, M. (2023): “ChatGPT y su impacto en las profesiones jurídicas”, Carta tributaria. Revista de opinión, N.º 99 y “ChatGPT y su impacto en las profesiones jurídicas”, Diario La Ley,  N.º 10289.

11 Resulta de interés los trabajos publicados en el número monográfico, Boix Palop, A. y Cotino Hueso, L., Coords. (2019): “Análisis monográfico. Derecho Público, derechos y transparencia ante el uso de algoritmos, inteligencia artificial y big data”, Revista General de Derecho Administrativo, N.º 50.

12 Como ha sido observado, la incorporación de nuevas herramientas tecnológicas acontece de forma progresiva en distintos ámbitos de la actividad administrativa, entre otros, en el ámbito de la contratación pública. Analizando esta realidad con detalle, cabe referir los siguientes estudios, Miranzo Díaz, J. (2020): “Inteligencia artificial y contratación pública”, en la obra Martín Delgado, I. y Moreno Molina, J.A. (Dirs.), Administración electrónica, transparencia y contratación pública. Iustel, Madrid 2020, pp.105-142. Y, el texto de  Martínez Gutiérrez, R. (2019): “La interoperabilidad como factor clave y estructural en la internacionalización de la contratación pública”, Contratación administrativa práctica: revista de la contratación administrativa y de los contratistas, N.º 159, p.12. Asimismo, resulta muy completo e ilustrativo el trabajo de García-Valdecasas Rodríguez De Rivera, P. (2022): Blockchain y automatización de procedimientos en la Administración pública. Wolters Kluwer, Madrid.

13 Debe hacerse hincapié en otro aspecto principal como es lo relativo al marco de responsabilidad. Desde hace tiempo, se insiste en ello, con motivo de impulso de la e-Administración. Al respecto, Martínez Gutiérrez, R. (2012): “Servicio público electrónico y responsabilidad”, Revista española de derecho administrativo, N.º 155, pp. 291-318.

14 Martínez Gutiérrez, R. (2021): “Inteligencia artificial, algoritmos y automatización en la Justicia. Propuestas para su efectiva implantación”, Práctica de tribunales: revista de derecho procesal civil y mercantil, N.º 149.

15 Sobre las aplicaciones de IA que pueden generar mayor riesgo, vid., Lacruz Mantecón, M.L. (2023): “Regreso a Bletchley Park: ¿Es la Inteligencia Artificial una innovación segura?”, Diario LA LEY, N.º 78, Sección Ciberderecho, 17 de Noviembre de 2023, https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAEWQTW-DMAyGf01znKCwjx5yKXBgoh20bOpOkwELomUJihO2_vu5rbRZsiXbrx_Z9tCRTBMBvQ-gc9. Y, Lacruz Mantecón, M.L. (2022), “La deslocalización de la Inteligencia”, Diario La Ley, N.o 62, Sección Ciberderecho, 20 de mayo.  Domínguez Álvarez, J.L. (2021): “Inteligencia Artificial, derecho administrativo y protección de datos personales. Entre la dignidad de la persona y la eficacia administrativa”, US ET SCIENTIA, Vol. 7, N.º1, https://revistascientificas.us.es/index.php/ies/article/view/16146/15167

16 La tutela pública de estos derechos fundamentales constituye un presupuesto principal en la era digital que vivimos y ante algunos avances tecnológicos como el objeto de nuestro actual estudio. De ello, ya advirtió la doctrina, entre otros autores, Piñar Mañas, J.L. (2011): “Revolución tecnológica, nueva administración y derechos fundamentales”, DIXI,  N.º 13, pp. 8-32. Piñar Mañas, J.L. (2018): “Derecho. Ética e innovación tecnológica”, Revista española de derecho administrativo, N.º 195, pp. 11-30. Terrón Santos, D. ; Domínguez Álvarez, J.L. y  Fernando Pablo, M.M. (2020): “Los derechos fundamentales de la privacidad: derecho y necesidad en tiempo de crisis”. Revista General de Derecho Administrativo,  N.º 55, 2020 (Ejemplar dedicado a: Análisis monográfico. Retos jurídicos de la cooperación transfronteriza). Domínguez Álvarez., J.L. (Dir.): Tratado de protección de datos personales: pasado, presente y futuro de la tutela jurídica de los derechos de la privacidad. COLEX, Constitución y Leyes, Madrid 2023. 

17 El posible empleo de las obras protegidas por los derechos de autor como modelo base y para el entrenamiento de los sistemas de inteligencia artificial podría vulnerar los derechos de autor, tal y como apuntan los autores, Lacruz Mantecón, M.L. (2021): Inteligencia Artificial y Derecho de Autor.  Fundación AISGE - Reus, Madrid 2021. Ordelín Font, J.L. (2023): “La piratería de la inteligencia artificial. El uso de las obras en el entrenamiento de modelos de ia generativos”, Actas de derecho industrial y derecho de autor,  Tomo 43, 2023, pp. 185-205.

18 Domínguez Álvarez, J.L. y Terrón Santos, D., dirs. (2023): Desafíos éticos, jurídicos y tecnológicos del avance digital. Iustel, Madrid.  Terrón Santos, D. (2021): “Inteligencia (artificial) y algo más”, en Terrón Santos, D. y Domínguez Álvarez, J.L. (Dirs.): Inteligencia artificial y defensa: nuevos horizontes. Thomson Reuters Aranzadi, Cizur Menor, 2021, pp. 25-43.

19 Vid., el trabajo de este autor, donde además se analizaban los retos planteados y, en especial, se expone la necesidad de establecer claros principios de actuación que, como tales, deberán guiar la actuación de las Administraciones públicas. Cerrillo i Martínez, A. (2019): “El impacto de la inteligencia artificial en el derecho administrativo ¿nuevos conceptos para nuevas realidades técnicas?”, Revista General de Derecho Administrativo, N.º 50.

20 Alamillo Domingo, I. (2017): “La regulación de la tecnología: La superación del modelo papel como elemento de transformación digital innovadora”, en I. Martín Delgado (Dir.), La reforma de la administración electrónica: una oportunidad para la innovación desde el derecho. (pp. 79-130). Instituto Nacional de Administración Pública, Madrid.

21 El uso de la IA plantea una amplia gama de desafíos que deben abordarse: desde el reconocimiento de patrones pasando por la ética, las decisiones sesgadas tomadas según algoritmos basados en la IA, la transparencia, hasta la rendición de cuentas. Los algoritmos de autoaprendizaje, por ejemplo, pueden ser entrenados mediante ciertos conjuntos de datos (decisiones anteriores, imágenes faciales o bases de datos de video, etc.) que podrían contener datos sesgados y que podrían utilizarse con aplicaciones para fines penales o de seguridad pública, lo que conduce a decisiones sesgadas. Diversos sistemas judiciales actualmente exploran el potencial de la IA, como ser el poder judicial, los servicios de fiscalía y otros órganos judiciales especializados en el mundo entero y en el ámbito de la justicia penal, proporcionando asistencia de investigación y automatizando/facilitando los procesos de toma de decisiones. UNESCO (2023): “La IA y el Estado de derecho: Fortalecimiento de capacidades para los sistemas judiciales”, https://www.unesco.org/es/artificial-intelligence/rule-law/mooc-judges

22 La Inteligencia Artificial (IA) proporciona el potencial necesario para abordar algunos de los desafíos mayores de la educación actual, innovar las prácticas de enseñanza y aprendizaje y acelerar el progreso para la consecución del ODS n.º 4. Sin embargo, acontece que los desarrollos tecnológicos surgen a gran velocidad, por lo que producen “inevitablemente múltiples riesgos y desafíos”, superando los tiempos que sigue el Derecho. Como sabemos, el ritmo es más lento cuando se trata de alcanzar acuerdos o dictar un marco regulatorio. Por tanto, se reconocen estas dificultades ante las posibles amenazas provocadas por el uso extensivo de una tecnología emergente y muy disruptiva como así se considera la IA o IA generativa. En consecuencia, al respecto, conviene advertir y prevenir, lo cual, no impide el reconocimiento de las posibilidades que facilitaría su empleo. Ahora bien, solo como posible recurso de apoyo y sin sustituir a otros demostrados claves en educación con base a la experiencia adquirida. Con todo, la UNESCO se compromete a apoyar a los Estados Miembros para que saquen provecho del potencial de las tecnologías de la IA con miras a la consecución la Agenda de Educación 2030, al tiempo que vela por que su aplicación en contextos educativos responda a los principios básicos de inclusión y equidad. https://www.unesco.org/es/digital-education/artificial-intelligence; https://www.unesco.org/es/artificial-intelligence

23 UNESCO (2019): Beijing Consensus on Artificial Intelligence and Education, International Conference on Artificial Intelligence and Education, Planning Education in the AI Era: Lead the Leap, Beijing, 2019, https://unesdoc.unesco.org/ark:/48223/pf0000368303

24 Miao, Fengchun; Holmes, Wayne; Ronghuai Huang y Hui Zhang (2021): Inteligencia artificial y educación: guía para las personas a cargo de formular políticas, UNESCO, https://unesdoc.unesco.org/ark:/48223/pf0000379376

25 UNESCO (2023): “ChatGPT e Inteligencia Artificial en la Educación Superior. Guía de inicio rápido”, Código de Documento: ED/HE/IESALC/IP/2023/12. Disponible en: https://www.iesalc.unesco.org/wp-content/uploads/2023/04/ChatGPT-e-Inteligencia-Artificial-en-la-educacio%CC%81n-superior-Gui%CC%81a-de-inicio-ra%CC%81pido_FINAL_ESP.pdf

26 En concreto, con respecto a gestión de datos, legislación y gobernanza, vid., Dopazo Fraguío, P. (2022), “El nuevo reglamento europeo para la gobernanza del dato: ¿Liberación segura de información y neutralidad de su tratamiento?”, REDE. Revista española de derecho europeo, N.º 82, pp. 115-166.

27 En la actualidad, se reconoce la funcionalidad operativa que pueden aportar las denominadas “clínicas jurídicas” como modelo y método aplicable para propiciar un aprendizaje integral, asimismo, útiles para experimentar con el empleo de nuevos recursos o herramientas educativas, orientadas a la formación teórica y práctica de los estudiantes de Derecho. Se focaliza la atención en el trabajo clínico. De este modo, la implementación de esta fórmula adquiere mayor relevancia al configurarse como auténticos laboratorios jurídicos, Y, por ende, también son de interés para la innovación docente. Por ello, surgen estos espacios colaborativos académico-profesionales en distintas Facultades de Derecho. Su papel operativo puede ser muy valioso, toda vez que supone contar con el entorno idóneo para optimizar el proceso de aprendizaje, propiciar el desarrollo de proyectos de aprendizaje-servicio y, a su vez, fomentar la investigación e impulsar proyectos innovadores o iniciativas que luego podrán ser empleadas en distintas áreas. Así, con este método se posibilita entrenar habilidades y destrezas, mejorar capacidades y competencias, tanto generales como específicas. Ello, sin duda, resultará esencial para el ejercicio profesional. Aproximando la noción y posibilidades que ofrecen las clínicas jurídicas, vid., Garcimartín C.; Quintáns-Eiras, M.R. y Carril Vázquez, X.M.(2023): Clínicas jurídicas: otra forma de aprender la experiencia en España, Italia y Estados Unidos. Aranzadi, Navarra.

28 Tal y como ha sido puesto de manifiesto, por ejemplo, con respecto a la aplicación jurídica de la IA en el ámbito de los servicios de salud, entre otros trabajos relativos a otras áreas de actividad y práctica jurídica. Al respecto cabe citar, Cárcar Benito C.B. (2019): “La inteligencia artificial (IA): aplicación jurídica y regulación de los servicios de salud”, Comunicaciones.Vol. 29 Extraordinario XXVIII Congreso 2019, en: https://www.ajs.es/sites/default/files/2020-10/vol29Extra_02_14_Comunicaci%C3%B3n.pdf. Cárcar Benito, J. E. (2021). La inteligencia artificial (IA) como aplicación jurídica y razonable: la cuestión sanitaria. IUS ET SCIENTIA7(1), 250-285. https://doi.org/10.12795/IETSCIENTIA.2021.i01.14

29 Al respecto, resultan de interés varios trabajos donde el papel de las herramientas tecnológicas en el entorno educativo ha sido puesto de manifiesto por varios autores, entre otros, García-Jiménez, E. (2015): La evaluación del aprendizaje: de la retroalimentación a la autorregulación. El papel de las tecnologías. RELIEVE - Revista Electrónica de Investigación y Evaluación Educativa21(2). https://doi.org/10.7203/relieve.21.2.7546. Y, de forma específica, con respecto a la incidencia de la IA en la Educación Superior, cabe referir los siguientes trabajos publicados, donde además se examinan distintas prácticas, en particular, aquellas al uso de la IA Generativa, vid., entre otros, Floridi, L. y Chiriatti, M. (2020): “GPT-3: Su naturaleza, alcance, límites y consecuencias”, Mentes y máquinas, 30(4), pp.681-694, https://doi.org/10.1007/s11023-020-09548-1. Lengua Cantero, C.; Bernal Oviedo, G.; Flórez Barboza, W.; y Velandia Feria, M. (2020): Tecnologías emergentes en el proceso de enseñanza-aprendizaje: hacia el desarrollo del pensamiento crítico. Revista Electrónica Interuniversitaria de Formación del Profesorado, 23(3), pp.83-98, https://doi.org/10.6018/reifop.435611. Gao, C.A.; Howard, F.M.; Markov, N.S.; Dyer, E.C.; Ramesh, S.; Luo, Y. y Pearson, A.T. (2022): “Comparación de resúmenes científicos generados por ChatGPT con resúmenes originales utilizando un detector de salida de inteligencia artificial, un detector de plagio y revisores humanos cegados”, bioRxivhttps://doi.org/10.1101/2022.12.23.521610. Hern, A. (2022): “El robot de inteligencia artificial ChatGPT sorprende a los académicos con sus habilidades de redacción de ensayos y su usabilidad. El guardián”, en https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-with-essay-writing-skills-and-usability. Torres Díaz, M. C. (2023): “El ensayo académico como instrumento de aprendizaje en Derecho Constitucional en la época del ChatGPT”, Universidad de Alicante. Instituto de Ciencias de la Educación, jun-2023, http://hdl.handle.net/10045/134781. López Espadafor, C.M. (Dir.), (2023): Elementos de innovación docente en ciencias sociales, jurídicas y otras disciplinas con contenido normativo. Dykinson, Madrid. Pérez Cano, F.D.; Jiménez Delgado, J.J. y Parra Cabrera, G. (2023): “Inteligencia artificial en la Educación Superior, ingeniería informática”, en Martín García, A., Mateu Gordon, J.L. y Guede Cid, R. (Coords.), Construyendo la educación del futuro en áreas de ingeniería, economía y STEM. Universidad de Jaén, 2023, pp. 54-66. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=9196474

30 En este texto, por razones de extensión, no resulta posible exponerlas, en todo caso el objetivo de este primer artículo es apuntar el mencionado interés y su motivación en el presente. Por ello, será en próximos artículos —dando continuidad al estudio desarrollado— cuando se podrá aportar mayor detalle sobre algunos de los proyectos de innovación docente previstos o en curso, cuya ejecución sí podría ser útil en el ámbito de la educación superior y, de forma específica, para orientar el diseño avanzado de los nuevos modelos de “clínicas jurídicas universitarias”. No obstante, sí cabe citar algunas propuestas y trabajos, en nuestro país, por ejemplo, Torres Díaz, M. C. (2023): “El ensayo académico como instrumento de aprendizaje en Derecho Constitucional en la época del ChatGPT”, Universidad de Alicante. Instituto de Ciencias de la Educación, jun-2023, http://hdl.handle.net/10045/134781. Moltó Berenguer, J. et al. (2023): “ChatGPT: ¿nuestro enemigo o nuestro aliado?”, en Satorre Cuerda, R. (Coord.), REDES-INNOVAESTIC 2023. Libro de actas, Universidad de Alicante. (116, p. 314), https://rua.ua.es/dspace/bitstream/10045/134781/1/XARXES-INNOVAESTIC_2023_Llibre_dActes.pdf. De igual modo, resulta de interés, López Espadafor, C.M., Dir. (2023): Elementos de innovación docente en ciencias sociales, jurídicas y otras disciplinas con contenido normativo. Dykinson, Madrid. López Galisteo, A.J.; Montes Díez, R. y Rodríguez Calzada, L. (2023): “Guía para potenciar el aprendizaje activo e interactivo en el aula universitaria”, Universidad Rey Juan Carlos, Madrid, https://burjcdigital.urjc.es/handle/10115/22149

31 En síntesis, la expresión ‘machine learning’ o aprendizaje automático es una rama de la inteligencia artificial y objeto de la Ciencia de Datos, por la cual se posibilita que las máquinas aprendan, con base al empleo de datos y aplicando algoritmos.

32Big Data” hace referencia a grandes volúmenes de datos, ya sean estructurados o no estructurados.

33 En 2021, la Universidad de Standford aportó el término Modelo Fundacional NLP o, de forma análoga, se emplean las siguientes denomindaciones: Large Language Model(LLM), Massive Language Model (MLM)Transformer Language Model. Son modelos de algoritmos basados en redes neuronales que operan utilizando grandes conjuntos de datos y, en principio, sin calificar de forma automática. Existen varios modelos fundacionales, entre los más recientes, GPT-3 y BLOOM. En concreto, “GPT-3: es un modelo fundacional NLP desarrollado por OpenAI en 2020 (última versión 3.5 en 2023 entrenado con un set de más de 175 billones de variables). Recientemente se ha lanzado un chatbot sobre este modelo fundacional llamado ChatGPT que en estos momentos no permite personalización ni adaptación a un negocio. Ofrece respuestas generalistas (entrenado con información hasta finales de 2021), pero sí está previsto que en próximas versiones pueda ser entrenado. Fuente consultada: IBM, “Modelos fundacionales NLP y su aplicación en asistentes virtuales como ChatGPT. Disrupción tecnológica en los modelos de atención”, 2023.

34 Dartmouth Summer Research Project on Artificial Intelligence, evento pionero sobre IA celebrado en la Universidad Dartmouth College (Hanover, Nuevo Hampshire (Estados Unidos) en el año 1956. Esta Conferencia sirvió como foro para establecer los pilares de lo que en ingeniería informática o computacional sería el campo científico de estudio de la IA. Con ello, se hacía referencia a la capacitación de las máquinas para ejercer acciones que precisan de la capacidad intelectual, por ej., percibir, aprender, razonar, resolver cuestiones y adoptar decisiones. A partir de esta idea, se encaminó el análisis y desarrollo de sistemas y algoritmos que pudieran imitar las funciones cognitivas del ser humano y, a su vez, operar de forma automatizada. Sobre el Proyecto de Investigación en Inteligencia Artificial de Dartmouth, vid., https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth (Fecha consulta: 26/11/2023).

35 Stuart J. Russell, Peter Norvig (1995) Artificial intelligence. A modern approach. Englewood Cliffs, New Jersey : Prentice Hall, coop., Estados Unidos. 1ª edición.

36 Consultado texto de la obra precitada en su 2ª edición, editada en nuestro país y actualizando los contenidos de la 1ª edición, vid., Inteligencia artificial. Un enfoque moderno. Pearson Educación, S.A., España, 2004 (2ª edición), disponible en: https://luismejias21.files.wordpress.com/2017/09/inteligencia-artificial-un-enfoque-moderno-stuart-j-russell.pdf (fecha última consulta: 7-12-2023).

37 Lo mencionado significa que se sigue el modelo de la red neuronal. Esto es, en síntesis, “las redes neuronales, también conocidas como redes neuronales artificiales (ANN) o redes neuronales simuladas (SNN), son un subconjunto del  aprendizaje automático  y están en el corazón de los  algoritmos de aprendizaje profundo. Su nombre y estructura están inspirados en el cerebro humano, imitando la forma en que las neuronas biológicas se envían señales entre sí”. International Business Machines, IBM (2023), “¿Qué son las redes neuronales?”, https://www.ibm.com/topics/neural-networks (Fecha consulta: 05/12/2023).

38 ChatGPT es herramienta creada por Open AI, empresa filial de Microsoft para Inteligencia Artificial), en 2021-2022. Pascual Ogueta, M.T. (2023): “ChatGPT: ¿Herramienta para tod@s?”, Bit, N.º 227, 2023, pp. 60-61, https://www.coit.es/sites/default/files/bit227.pdf. Graners, E. (2023): “Chat GPT en la educación: ¿Hacia dónde vamos?”, Revista DIM: Didáctica, Innovación y Multimedia,  N.º 41, 2023, https://ddd.uab.cat/record/275779

39 Agencia Española de Protección de Datos, AEPD (2023): “La AEPD inicia de oficio actuaciones de investigación a OpenAI, propietaria de ChatGPT”, 13 de abril de 2023, https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-inicia-de-oficio-actuaciones-de-investigacion-a-openai

40 Arenas Ramiro, M. (2023): “ChatGPT is coming…”, La Ley privacidad,  N.º 15, 2023. Andrés Aucejo, E. y Ramón, F., (2023): “Inteligencia Artificial: “chat GPT” versus la Ley y el Derecho. Jaque al derecho de la propiedad intelectual”, Revista de educación y derecho, N.º 28 Agudelo, C.A. (2022): “El Chat GPT y las reflexiones de un investigador escéptico”, Jurídicas,  Vol. 19, N.º 2, pp. 7-17.

41 Comunicación de la Comisión Europea al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de Regiones: Inteligencia artificial para Europa. Bruselas, 25.4.2018. COM (2018) 237 final. https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:52018DC0237

42 Comunicación de la Comisión Europea al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de Regiones: Fomentar un enfoque europeo de la Inteligencia Artificial, COM/2021/205 final, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=COM%3A2021%3A205%3AFIN

43 https://digital-strategy.ec.europa.eu/en/library/coordinated-plan-artificial-intelligence-2021-review

44 COM/2021/206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

45 Sobre la documentación que comprende dicho modelo de “evaluación de impacto”, vid., https://digital-strategy.ec.europa.eu/en/library/impact-assessment-regulation-artificial-intelligence

46 https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_ES.html

47 El viernes 9 de diciembre de 2023, en la UE ha sido adoptado por acuerdo el texto normativo de este Reglamento europeo, “IA Act”, cfr., Presidencia española del Consejo de la UE (Noticias): “Ley de inteligencia artificial: el Consejo y el Parlamento llegan a un acuerdo sobre las primeras normas del mundo para la IA”, comunicado oficial publicado en este día, https://spanish-presidency.consilium.europa.eu/es/noticias/consejo-parlamento-acuerdo-primeras-normas-mundiales-inteligencia-artificial/; Consejo Europeo - Consejo de la Unión Europea: “Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world”, https://www.consilium.europa.eu/es/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ (fecha: 9 de diciembre de 2023, 01:27h.).

48 Cfr., https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence

49 Este Grupo de expertos designado —compuesto por 52 expertos— ha desarrollado una labor fundamental para el desarrollo del enfoque de la Comisión en materia de inteligencia artificial.  Comunicación sobre la creación de confianza en la inteligencia artificial centrada en el ser humano, el Libro Blanco sobre la inteligencia artificial: un enfoque europeo de la excelencia y la confianza. Cfr., Comisión Europea: Grupo de expertos de alto nivel sobre inteligencia artificial, https://digital-strategy.ec.europa.eu/es/policies/expert-group-ai.

50 COM (2018) 237 final.

51 Para más detalle sobre lo referenciado, vid., “AI HLEG y la Alianza Europea de IA”, https://digital-strategy.ec.europa.eu/es/policies/expert-group-ai

52 Fernández, C.B. (2019): “El grupo de expertos de la Comisión Europea presenta una definición actualizada de la Inteligencia Artificial”, Diario La Ley, de 15-4-2019,

53 El documento titulado “Una definición de la IA: capacidades y disciplinas principales” (“A definition of AI: Main capabilities and disciplines”) fue presentado el pasado día 8 de abril, https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines

54 Vid., por ejemplo, Parlamento Europeo, ”¿Qué es la inteligencia artificial y cómo se usa?”, texto ofrecido, actualizado a 26-03-2021, en: https://www.europarl.europa.eu/news/es/headlines/society/20200827STO85804/que-es-la-inteligencia-artificial-y-como-se-usa

55 Parlamento Europeo: Ley de Inteligencia Artificial. Texto aprobado, el 14 de junio de 2023, https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_ES.html

56 https://planderecuperacion.gob.es/noticias/que-es-inteligencia-artificial-ia-prtr

57 Nótese que, en efecto, el texto normativo aprobado por el Parlamento Europeo modifica y completa el previo propuesto por la Comisión. Cfr., Parlamento Europeo: Ley de Inteligencia Artificial. Texto aprobado, el 14 de junio de 2023, https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_ES.html

58 Conforme a lo redactado en el texto aprobado por el Parlamento Europeo, cfr., Enmienda 165 Propuesta de Reglamento, Artículo 3, párrafo 1, punto 1.

59 OCDE: “Cuarenta y dos países adoptan los Principios de la OCDE sobre Inteligencia Artificial”. París, 22-5-2019, https://www.oecd.org/espanol/noticias/cuarentaydospaisesadoptanlosprincipiosdelaocdesobreinteligenciaartificial.htm

60 En este sentido, Simó Soler, E. (2023): “Retos jurídicos derivados de la Inteligencia Artificial Generativa”, Indret: Revista para el Análisis del Derecho, N.º 2. En este trabajo, en concreto, se exponen algunos de los problemas que plantea el uso de la IA generativa.

61 Lopezosa, C. y Codina, Ll. (2023): “Probando Bard, así funciona la Inteligencia Artificial Generativa de Google”, Anuario ThinkEPI,  Vol. 17, Vol. 1.

62 ChatGPT es herramienta creada por Open AI y ofreciendo nuevos desarrollos o productos en la actualidad (2021/2022). empresa tecnológica norteamericana, filial de Microsoft para Inteligencia Artificial), https://openai.com

63 GPT (trasformador pre entrenado generativo), básicamente, es un modelo de Logic learning machine que vía deep learning puede generar textos imitando a los humanos, a partir de modelos previos o de las fuentes originales de que dispone u obtienen. Por ello, se IA generativa. Si bien, han de recibir un “preentrenamiento”, mediante la entrada de gran volumen de información o datos, de forma que una vez habilitados pueden ser destinados a realizar tareas o creaciones específicas y/o personalizadas. Se conocen como «transformadores» en términos técnicos, por emplear datos y por la configuración de lo que se conoce como modelos de redes neuronales o ”red neuronal basada en transformadores para procesar texto de entrada y generar texto de salida”.

En particular, el “Generative Pre-trained Transformer 3” o más conocido por el acrónimo GPT3, supone un tipo de “modelo de aprendizaje auto-regresivo” que estaría capacitado para crear textos análogos a los que pudiera elaborar una persona. Ahora bien, de momento, necesitan de la revisión posterior por el humano. Con todo, la principal innovación tecnológica a destacar radicaría en que sería la primera vez que se logra un modelo de red neuronal que puede desarrollar textos de calidad, por lo que en algunos supuestos podría resultar complejo saber si han sido elaborados mediante IA. Esto es, sería la primera vez que una máquina lograría dar respuesta razonada o razonable y empleando el lenguaje humano y sin que a primera vista pudiera apreciarse que se trata de una máquina. Por ello. el uso de este tipo de IA es hoy muy controvertido, ya que puede ser complicado identificar cuál es su auténtica autoría y si ha intervenido IA o no. Para mayor detalle sobre este tipo de herramienta o productos, puede consultarse https://openai.com/chatgpt

64 GPT-4, supone un avance respecto al GPT-3, https://openai.com/gpt-4

65 Otros ejemplos de IA Generativa son los programas de texto e imagen como DALL-E o Stable Diffusion o Midjourney, es la conocida como ”IAs creadas para la generación de imágenes” y su capacidad aplicativa se refiere a obras artíticas o audiovisuales, por ej., películas, animación, juegos, etc. También, aplicable en diseño de arquitectura, entre otras posibilidades, vid., https://openai.com/dall-e-3

66 Al respecto, vid., Franganillo, J. (2023): “La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos”, Methaodos revista de ciencias sociales, 11(2), m231102a10. http://dx.doi.org/10.17502/mrcs.v11i2.710; Guerrero-Solé, F. y Ballester, C. (2023): “The impact of Generative Artificial Intelligence on the discipline of communication”, Hipertext.net: Revista Académica sobre Documentación Digital y Comunicación Interactiva, https://www.raco.cat/index.php/Hipertext/article/view/416518

67 La incorporación de CLIP, según los expertos, ha sido básica, siendo definida como “una red neural que aprende conceptos visuales de manera eficiente a partir de la supervisión del lenguaje natural”, de este modo, “CLIP se puede aplicar a cualquier punto de referencia de clasificación visual simplemente proporcionando los nombres de las categorías visuales que se reconocerán, similar a las capacidades de ´disparo cero´ de GPT-2 y GPT-3”. OpenAI, EEUU, 2021, https://openai.com/research/clip

68 El enfoque europeo de la inteligencia artificial se pone de manifiesto vía “La Estrategia Europea de IA”, la cual, tiene como finalidad “convertir a la UE en un centro de excelencia mundial para la IA y garantizar que la IA esté centrada en el ser humano y sea fiable. Este objetivo se traduce en el enfoque europeo de la excelencia y la confianza a través de normas y acciones concretas”. Y abarca varias acciones en curso, que se pueden consultar en: https://digital-strategy.ec.europa.eu/es/policies/european-approach-artificial-intelligence#:~:text=La%20Estrategia%20Europea%20de%20IA,de%20normas%20y%20acciones%20concretas

69 La “AI Alliance” se configura como foro para debatir sobre la IA y dirigir la labor del Grupo de Expertos de Alto Nivel en Inteligencia Artificial (AI HLEG), y su actividad se mantiene durante estos años y en la actualidad. Al respecto, para mayor detalle, vid., Comisión europea (2023): “La Alianza Europea de IA”, https://digital -strategy.ec.europa.eu/es/policies/european-ai-alliance

70 Cfr., “la Comisión abre el acceso a los superordenadores de la UE para acelerar el desarrollo de la inteligencia artificial”, Comunicado de 16 noviembre 2023, en: https://digital-strategy.ec.europa.eu/es/news/commission-opens-access-eu-supercomputers-speed-artificial-intelligence-development

71 Cfr., Comunicado de 24 noviembre 2023, en: https://digital-strategy.ec.europa.eu/es/news/eu-and-canada-launch-digital-partnership-strengthen-strategic-cooperation

72 Comisión Europea: Propuesta de Reglamento del Parlamento europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (LEY DE INTELIGENCIA ARTIFICIAL) y se modifican determinados actos legislativos de la Unión. Bruselas, 21.4.2021, COM (2021) 206 final, https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:52021PC0206

73 “Ley de Inteligencia Artificial”, https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_ES.html

74 Sobre todo, estas modificaciones hacen referencia a la ampliación del ámbito aplicativo del Reglamento UE, asimismo, son incorporadas nueva nociones legales y principios estructurales relativos a los distintos tipos de sistemas de IA. Se establece un régimen jurídico específico para los modelos fundacionales y también se realizan cambios importantes con respecto a los “sistemas prohibidos” y de “alto riesgo” el establecimiento de una regulación específica para los modelos fundacionales. Se hace expresa referencia a la IA Generativa, imponiendo el deber de que estos sistemas informen sobre los contenidos generados de forma artificial. También, se modifica el régimen sancionador previsto. Y, por otra parte, son reforzadas las acciones de apoyo a la innovación

75 A fecha de la realización del presente trabajo, cfr., texto aprobado, https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_ES.html

76 Conforme a lo redactado en el texto aprobado por el Parlamento Europeo, cfr., Enmienda 165 Propuesta de Reglamento, Artículo 3-párrafo -punto 1.

77 OCDE: “Cuarenta y dos países adoptan los Principios de la OCDE sobre Inteligencia Artificial”. París, 22-5-2019, https://www.oecd.org/espanol/noticias/cuarentaydospaisesadoptanlosprincipiosdelaocdesobreinteligenciaartificial.htm

78 RGPD: Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos). DOUE L 119/1, de 4.5.2016.

79 Parlamento Europeo, Ley de Inteligencia Artificial, texto aprobado 14 junio 2023, https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_ES.html

80 Esta Estrategia Nacional ha sido calificada como uno de los ejes de la Agenda España Digital 2026 e integra el  Plan de Recuperación, Transformación y Resiliencia de la economía española, https://portal.mineco.gob.es/es-es/digitalizacionIA/Paginas/ENIA.aspx (Fecha última consulta: 27/11/2023).

81 Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación (BOE núm. 167, de 13 de julio de 2022).

82 Fernández Hernández, C. (2023): “La Ley 15/2022 introduce la primera regulación positiva de la inteligencia artificial en España”, DiarioLaLey (Ciberderecho), de 13/07/2022, https://diariolaley.laleynext.es/dll/2022/07/13/la-ley-15-2022-introduce-la-primera-regulacion-positiva-de-la-inteligencia-artificial-en-espana