La Comisión Europea ha dado a conocer el primer borrador del Código de Buenas Prácticas para la Inteligencia Artificial de Propósito General (GPAI, por sus siglas en inglés). Un grupo de expertos independientes, designados por la Oficina de Inteligencia Artificial europea, ha redactado el documento a partir de la información recabada en una consulta pública que se puso en marcha en agosto pasado. Recoge los requisitos, normas y mecanismos para garantizar que las grandes tecnológicas cumplan con la Ley de IA vigente en el espacio europeo.
El borrador tendrá en cuenta la opinión de numerosas partes interesadas
Está previsto que la propuesta se revise por cerca de 1.000 personas. Esta semana, los cuatro grupos de trabajo que han participado en su redacción, la están debatiendo y el viernes se discutirá en la sesión plenaria del Código de Buenas Prácticas. Las conclusiones que se obtengan en estas reuniones, en las que participan representantes de los Estados miembros de la UE, así como observadores europeos e internacionales, servirán para perfeccionar el contenido del código.
Prevén que el proyecto definitivo estará disponible en mayo de 2025
El escrito definitivo se presentará en el Pleno de clausura de mayo de 2025, de manera que las normas que rigen los modelos de IA de uso general (GPAI, por sus siglas en inglés) en virtud de la Ley de IA entrarán en vigor el 1 de agosto del próximo año, informa Infobae. Por su parte, la Comisión ha manifestado, según recoge Wired, que «la versión final establecerá objetivos, medidas y, cuando sea pertinente, indicadores clave de desempeño (KPI). Desempeñará un papel crucial en la orientación del desarrollo y la implementación futura de GPAI seguros y confiables».
El respeto de los derechos de autor de los modelos de GPIA es un punto clave
Entre los aspectos clave que incluye del borrador, Infobae destaca «los detalles sobre la transparencia y la aplicación de la regulación relativa a los derechos de autor, así como una serie de riesgos sistémicos, las metodologías para su evaluación y las medidas de mitigación». Todo ello, dirigido a los proveedores de GPAI.
Transparencia de la operativa para entrenar los sistemas
El texto recalca que las desarrolladoras de los sistemas GPAI deberán «informar sobre los rastreadores web, fuentes de información y bases de datos que han utilizado para entrenar, probar y verificar los algoritmos», se indica en Wired. Además, tendrán que hacer públicos los términos de los acuerdos de licencia que les habilitan para acceder a contenidos protegidos y establecer un canal único para que los titulares de los derechos comuniquen sus quejas.
Perfilar las políticas empresariales de riesgos para abordar las amenazas
En cuanto a las amenazas, entre las que Wired cita «los delitos cibernéticos, la discriminación a gran escala o la persuasión y manipulación» las empresas tendrán que tratarlas como riesgos sistémicos. Esto requerirá que los desarrolladores de GPAI cuenten con un Marco de Seguridad y Protección en el que se especifiquen los protocolos de gestión y mitigación de los efectos de estos riesgos. También tendrán que realizar análisis de forma periódica para detectar posibles amenazas a sus sistemas.
El cumplimiento del código no tiene carácter obligatorio
En todo caso, la normativa no tiene un carácter obligatorio, su objetivo es ayudar a los proveedores de modelos GPAI a cumplir las obligaciones que marca la Ley de IA de la UE. Así, las tecnológicas podrán implementar las medidas que consideren siempre que puedan demostrar que son eficaces respecto a lo que contempla la norma europea. No obstante, Wired avanza que se «espera que organizaciones como OpenAI, Google, Meta, Anthropic y Mistral se ajusten a las nuevas directrices de la UE».