Home » Microsoft y Google dicen que “la IA aún no ha alcanzado el nivel necesario para determinar el consentimiento” en el Tribunal Superior de Delhi

Microsoft y Google dicen que “la IA aún no ha alcanzado el nivel necesario para determinar el consentimiento” en el Tribunal Superior de Delhi

by admin
Microsoft y Google dicen que “la IA aún no ha alcanzado el nivel necesario para determinar el consentimiento” en el Tribunal Superior de Delhi

Microsoft y Google informaron el jueves al Tribunal Superior de Delhi que actualmente no tienen la tecnología para detectar y eliminar automáticamente imágenes íntimas no consentidas (NCII) sin URL específicas.

“AI [Artificial Intelligence] “Aún no ha alcanzado el nivel para determinar el consentimiento”, dijeron los gigantes tecnológicos, mientras impugnaban una orden aprobada por un juez único del Tribunal Superior en abril del año pasado.

Luego, el juez único dijo que, dado que las entidades intermediarias de las redes sociales ya poseían herramientas para la prevención de la pornografía infantil, se pueden implementar para reducir el abuso del NCII.

Microsoft ha desarrollado un software, Photo DNA, que actualmente se utiliza para identificar CSAM y también lo utilizan plataformas como Google y Twitter. YouTube también ha desarrollado CSAI (Imágenes de abuso sexual infantil), que utilizan ONG y otras empresas para identificar contenidos abusivos conocidos en la base de datos.

El juez único había advertido a los intermediarios de las redes sociales que corren el riesgo de perder su protección de responsabilidad si no cumplen con precisión el plazo establecido en las Reglas de Tecnología de la Información (Reglas de TI) para eliminar NCII.

‘Área problemática’

El jueves, el abogado de los gigantes tecnológicos dijo al tribunal que “es posible que dentro de un año, puede que sea un año y medio, la IA alcance ese nivel, pero cargarme ahora y decir que perderé mi inmunidad, eso es el área problemática”.

El abogado afirmó que para el material de abuso sexual infantil (CSAM), la tecnología ya existe, pero no para las “imágenes sexualmente explícitas no consensuadas”.

Si bien el CSAM es clara y universalmente ilegal, la legalidad del contenido NCII depende del contexto en el que se captura o comparte, había dicho previamente Google al tribunal. Afirmó que, a pesar de los esfuerzos diligentes para impedir su reaparición, ese contenido a menudo puede modificarse fácilmente, evitando así la detección.

El abogado de los gigantes tecnológicos dijo al tribunal que cualquier persona que desee eliminar contenido del NCII solo requiere que el usuario etiquete esa imagen y esa URL. “Ni siquiera es necesario acudir a los tribunales para eliminar contenido de esa naturaleza. La gente sólo necesita seguir algunos pasos”, dijo el abogado.

Un tribunal formado por el presidente interino del Tribunal Supremo, Manmohan, y el juez Manmeet Pritam Singh Arora, dijo: “Según usted, a menos y hasta que se proporcione la URL, no se puede hacer. Pero, en cuanto se aloja en la URL, el daño ya está hecho”.

“Por lo tanto, el problema es este, tú [court] Estamos aprobando una orden judicial, pero no se implementa porque la URL sigue cambiando”, dijo el Tribunal.

Los gigantes tecnológicos, sin embargo, enfatizaron que la tecnología se está desarrollando, aunque “a día de hoy no es perfecta”.

“Si hay una diferencia en un pixelado, para el ojo humano es lo mismo, pero para el recurso informático, que en modo alguno está afectado por la intervención humana, no aparecerá ante la misma imagen”, afirma el abogado de la dijeron los gigantes tecnológicos.

Al señalar que el Juez Único emitió instrucciones y recomendaciones que exigían a los motores de búsqueda adoptar medidas más allá de sus capacidades actuales, el tribunal dijo a los gigantes tecnológicos que volvieran al Juez Único con una petición de revisión para revocar su orden.

2024-05-09 18:44:26
#Microsoft #Google #dicen #aún #alcanzado #nivel #necesario #para #determinar #consentimiento #Tribunal #Superior #Delhi,

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy