Pese a su reciente aparición, la nueva IA de Meta, el círculo azul llamado Meta IA, ya cuenta con una denuncia formal en Argentina. Se ha presentado ante la Agencia de Acceso a la Información Pública (AAIP) contra Meta, la empresa matriz de Facebook, WhatsApp e Instagram. Se centra en el uso de datos personales para el entrenamiento de inteligencia artificial (IA) por parte de la compañía, a la que pide explicaciones sobre cómo preserva la intimidad de los datos de los usuarios que utiliza para mejorarla.
Explicaciones sobre sus prácticas y su política de privacidad
La denuncia, que consta de 22 puntos, solicita a Meta Argentina explicaciones sobre sus prácticas de recopilación y uso de datos personales para entrenamiento de la IA. Además, exige información sobre la actualización de la política de privacidad y evidencia del consentimiento de los usuarios, una Evaluación de Análisis de Impacto (PIA), aclaraciones técnicas sobre los procesos de anonimización de datos y garantías de su irreversibilidad, así como sobre cómo se previene la re-identificación de datos anonimizados, y detalles sobre las políticas de retención y destrucción de datos. También pide a la AAIP realizar una auditoría independiente de los procesos de Meta en el país.
Abogados especialistas en protección de datos buscan sentar un precedente legal
Lo demandantes son los abogados especialistas en protección de datos personales Facundo Malaureille y Daniel Monastersky, directores de la Diplomatura en Data Governance de la Universidad del CEMA. Con ella, pretenden que «Argentina tome una posición proactiva en la regulación del uso de datos personales para el entrenamiento de IA», según declaró Malaureille a CiberseguridadLatam. Este experto añadió que «es crucial que no nos quedemos atrás en la protección de los derechos digitales de nuestros ciudadanos, y establecer un precedente legal». Para Monastersky, busca sentar un precedente legal que guíe futuras regulaciones y prácticas en el ámbito de la IA y la protección de datos en el país.
La prácticas de las grandes tecnológicas en materia de IA preocupan a nivel mundial
Esta denuncia tiene lugar en un contexto internacional de creciente preocupación sobre las prácticas de las grandes tecnológicas en materia de inteligencia artificial y protección de datos. Recientemente, en Brasil se obligó a Meta a suspender el funcionamiento de Meta AI en el país, se impuso una posible multa de 50.000 reales (unos 8.000 euros) diarios por incumplimiento y una sanción de 1.733 millones de reales (unos 277 millones) contra WhatsApp por supuesta violación de privacidad. En la Unión Europea, la situación es similar, como prueba la decisión de Meta de no lanzar sus modelos de IA multimodal a causa a la «naturaleza impredecible del entorno normativo». Rob Sherman, directivo de la empresa estadounidense, se ha mostrado preocupado por el riesgo de que Europa «quede fuera» en el desarrollo de IA avanzada debido a la regulación.
Actualizar la legislación es una asignatura pendiente
En el texto que Malaureille y Monastersky presentaron ante la AAIP, advierten que la ausencia de una legislación actualizada en este campo deja a los ciudadanos argentinos en una posición vulnerable, expuestos a sufrir abusos potenciales a causa de las decisiones unilaterales de grandes corporaciones tecnológicas como Meta que manejan grandes volúmenes de información personal. La comunidad tecnológica y legal argentina, por su parte, sigue de cerca este caso, pues el resultado podría tener un destacado impacto en la innovación en IA y la protección de datos personales.
Fuentes: La Nación, Tiempo Argentino, Ciberseguridad LATAM