La decisión de la Unión Europea de aprobar la primera ley de Inteligencia Artificial del mundo ha puesto en marcha una cuenta atrás de dos años. España y el resto de países comunitarios deberán adaptar sus marcos regulatorios para responder a un cambio de paradigma tecnológico llamado a transformarlo todo. Se trata de una revolución que, por su propia naturaleza, tiene un impacto directo en los derechos fundamentales de los ciudadanos. Sobre todo en la propiedad intelectual y los derechos de autor, que se ven especialmente amenazados por ella.
La inteligencia artificial (IA) se basa en el procesamiento masivo de datos y, hasta ahora, carecía de una regulación específica. En los últimos años, los distintos modelos han usado sin control el material disponible en Internet.
Esto ha llegado al punto de permitir a la IA crear imitaciones de artistas tan convincentes que se cuelan en las listas de éxitos. Ya le sucedió por ejemplo al cantante puertorriqueño Bad Bunny. Una canción generada por IA replicó su estilo, voz y sonidos… y, pese a que no se vendía como una canción suya, logró confundir.
Ejemplos como éste abrieron el debate sobre los límites en el uso de datos para entrenar IA y el reparto de los derechos de autor de sus creaciones. Por ahora, solo la Unión Europea ha llegado a redactar con éxito un primer marco jurídico básico, que se desarrollará en los próximos años.
Primeros pasos en España para regular la IA
En este sentido, España ha defendido durante los últimos años la necesidad de mejorar la regulación de los derechos digitales de los europeos. De hecho, dio sus primeros pasos antes incluso de que la Comisión Europea aprobase el texto definitivo de la Ley de Inteligencia Artificial en mayo de 2024.
En marzo, el Gobierno propuso la creación de la Oficina de Derechos de Autor para abordar los retos que representa la inteligencia artificial para la propiedad intelectual. En el proyecto de ley presentado para su creación, ya se señalaban puntos que estarían presentes en la legislación aprobada en Bruselas un par de meses después. Por ejemplo, el registro de obras creadas por medio de algoritmos y el reparto de sus derechos de autor.
La ley por la Unión Europea, lógicamente, ha ido mucho más allá. A pesar de que desde el sector se ha señalado que resulta muy elemental en alguno de sus conceptos, hay que tener en cuenta que se trata de una primera delimitación. Y que trata de regular el campo de acción de una tecnología que avanza a mayor velocidad que cualquier legislación.
Trazabilidad para proteger los derechos de autor
Uno de los puntos fundamentales es intentar garantizar la transparencia y trazabilidad de los sistemas de IA, sobre todo los clasificados como «de alto riesgo». Desarrolladores y usuarios de estos sistemas deberán mantener registros detallados sobre su funcionamiento, los datos utilizados y las decisiones tomadas por la IA para el resultado final. Esto facilitará que haya una supervisión efectiva y permitirá realizar auditorías si surgen problemas.
La trazabilidad es clave para los creadores. En el caso de Bad Bunny, por ejemplo, podría demostrar que ese modelo de IA le tomó como referencia para elaborar la canción. Permite reclamar potenciales derechos de autor o tomar medidas legales contra quienes utilizan identidades ajenas como base para crear algo sin permiso.
La nueva reglamentación también pedirá transparencia a la hora de informar sobre si una fotografía o una canción, por ejemplo, han sido generadas por IA. Una identificación que, si bien está pensada para detectar fake news, puede ser también muy útil a los creadores para diferenciar su trabajo.
La ley subraya la importancia de proteger los derechos fundamentales, como la privacidad y la no discriminación producida por sesgos de raza o género, por ejemplo. Para garantizar esto, se creará un Consejo Europeo de Inteligencia Artificial, encargado de supervisar la implementación de la ley y coordinar las acciones de los diferentes países miembros. Además, se establece un mecanismo para que los ciudadanos puedan presentar quejas si consideran que sus derechos han sido vulnerados por el uso de una IA.
Innovación en la IA sí, pero controlada
La Unión Europea busca que el control sea flexible; para fomentar la innovación y la creatividad y que al mismo tiempo el espacio comunitario se mantenga competitivo en el ámbito de la IA. Para ello, se ha previsto la creación de «espacios de pruebas regulatorios» donde las empresas puedan experimentar con nuevas tecnologías de IA bajo la supervisión de las autoridades. Se espera que esto facilite la innovación en un entorno controlado.
Buscan mitigar también ciertos errores cometidos por empresas como por ejemplo la propietaria de ChatGPT, OpenAI. Ésta ha recibido recriminaciones, entre otras cosas, por hacer accesible su tecnología al público sin considerar los riesgos y defectos que todavía presentaba su modelo.
Esta innovación supervisada, si se puede definir así, también irá acompañada de programas de ayudas para la creación de modelos de IA que promuevan el bienestar social y ambiental, fomentando la investigación en áreas como la salud pública, el cambio climático o la educación.