Home » Se ha desarrollado un sistema para entrenar la IA con datos dañados, lo que protegerá contra reclamaciones de los titulares de derechos de autor.

Se ha desarrollado un sistema para entrenar la IA con datos dañados, lo que protegerá contra reclamaciones de los titulares de derechos de autor.

by admin
Se ha desarrollado un sistema para entrenar la IA con datos dañados, lo que protegerá contra reclamaciones de los titulares de derechos de autor.

Los modelos de inteligencia artificial que generan imágenes basadas en descripciones de texto, cuando se entrenan con imágenes originales, pueden “recordarlas”, planteando así el problema de la infracción de derechos de autor. Se ha desarrollado un sistema para proteger contra reclamaciones de los titulares de derechos de autor. Difusión ambiental entrenar modelos de IA solo con datos dañados.

Fuente de la imagen: github.com/giannisdaras

Los modelos de difusión son algoritmos avanzados de aprendizaje automático que generan características de alta calidad agregando gradualmente ruido a un conjunto de datos y luego invirtiendo el proceso. Los estudios han demostrado que dichos modelos son capaces de recordar muestras del conjunto de entrenamiento. Esta característica puede tener consecuencias desagradables en términos de privacidad, seguridad y derechos de autor. Por ejemplo, si la IA está entrenada para trabajar con rayos X, no necesita recordar imágenes de pacientes específicos.

Para evitar estos problemas, investigadores de la Universidad de Texas en Austin y la Universidad de California en Berkeley desarrollaron el marco de Difusión Ambiental para entrenar modelos de difusión de IA solo en imágenes que han sido dañadas hasta quedar irreconocibles, lo que hace prácticamente imposible que la IA pueda detectarlas. “recordar” y reproducir la obra original.

Para confirmar su hipótesis, los científicos entrenaron un modelo de IA con 3.000 imágenes de celebridades de la base de datos CelebA-HQ. Al recibir una solicitud, este modelo comenzó a generar imágenes casi idénticas a las originales. Después de eso, los investigadores volvieron a entrenar el modelo utilizando 3.000 imágenes con daños graves: hasta el 90% de los píxeles estaban enmascarados. Luego comenzó a generar rostros humanos realistas y muy diferentes a los originales. Sus autores publicaron los códigos fuente del proyecto en GitHub.



Si nota un error, selecciónelo con el mouse y presione CTRL+ENTER.

2024-05-22 15:52:00
#desarrollado #sistema #para #entrenar #con #datos #dañados #protegerá #contra #reclamaciones #los #titulares #derechos #autor,

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy