Un estudio de los algoritmos de desaprendizaje ha generado una creciente inquietud sobre la protección de datos personales y los derechos de propiedad intelectual. Un equipo de especialistas de reconocidas instituciones académicas ha analizado cómo estos algoritmos, creados en principio para eliminar información confidencial de los modelos de aprendizaje automático, podrían, paradójicamente, facilitar la filtración de datos privados de los usuarios.
El auge de las técnicas de desaprendizaje: borrado de datos confidenciales
Los analistas han apuntado que los modelos de lenguaje se entrenan con grandes cantidades de texto que pueden incluir contenido privado y con derechos de autor. Esto ha llevado a que autores, editores y sellos discográficos presenten demandas para forzar un cambio en la forma en que se recopila la información, pues consideran que dichos modelos perjudican sus obras con copyright. Este problema ha popularizado las llamadas técnicas de desaprendizaje, o sea, hacer que estas empresas y desarrolladores de herramientas de IA borren de sus registros todos los datos confidenciales o «tokens» de los usuarios que no deberían alojar.
El desaprendizaje de modelos de entrenamiento favorece la fuga de información confidencial, según un estudio
Aunque el objetivo de los algoritmos de desaprendizaje es eliminar la información confidencial de estos modelos de machine learning para proteger los datos personales de los usuarios, pueden en realidad propiciar la fuga de información privada. Es una de las conclusiones a la que han llegado un grupo de expertos de diferentes instituciones, entre ellas las Universidades de Washington, Princeton, Chicago y Southern California, junto con Google Research. Los resultados han sido publicados en MUSE: Machine Learning Six-Way Evaluation for Language Models.
Seis propiedades «deseables» para un modelo de desaprendizaje
Los investigadores han estudiado el comportamiento de ocho algoritmos y han establecido un punto de referencia integral llamado MUSE, que los prueba en función de seis criterios considerados propiedades «deseables» para un modelo que ha experimentado el desaprendizaje.
El primero indica que estos modelos no deben memorizar «palabra por palabra», esto es, recordar frases construidas, exactas. Tampoco memorizar conocimientos derivados de los datos específicos ni filtrar ninguna información privada.
Deberían, por otra parte, ceñirse al principio de preservación y seguir funcionando bien con otros datos que no estén destinados a ser eliminados. Además, se debe plantear la escalabilidad, es decir, gestionar solicitudes grandes y múltiples de eliminación de datos de forma eficiente, y también peticiones sucesivas de desaprendizaje, sin deteriorar el rendimiento.
La dificultad de desaprender los datos confidenciales
Los expertos destacan que los algoritmos de desaprendizaje no suelen cumplir con las expectativas de los propietarios de los datos en lo que respecta a la prevención de fugas de información privada, una de las principales motivaciones para el desaprendizaje. Pese a reconocer que cada vez es más deseable encontrar uno eficiente, «los métodos de desaprendizaje actualmente factibles aún no están listos para un uso significativo o implementación en escenarios del mundo real». En última instancia, constatan la urgencia de realizar más investigaciones en esta área.
Fuentes: infobae, Europa Press