Home » Apple abandona plan para escanear dispositivos en busca de CSAM

Apple abandona plan para escanear dispositivos en busca de CSAM

by admin
Apple abandona plan para escanear dispositivos en busca de CSAM

Apple está abandonando sus planes de lanzar una herramienta controvertida que verificaría las fotos de iPhones, iPads y iCloud en busca de material de abuso sexual infantil (CSAM) luego de la reacción violenta de los críticos que denunciaron las posibles implicaciones de privacidad de la función.

Apple anunció la función por primera vez en 2021, con el objetivo de ayudar a combatir la explotación infantil y promover la seguridad, temas que la comunidad tecnológica ha adoptado cada vez más. Pero pronto frenó la implementación de la función en medio de una ola de críticas, y señaló que “tomaría más tiempo en los próximos meses recopilar información y realizar mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica”.

En una declaración pública el miércoles, Apple dijo que había “decidido no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos”.

“Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para nosotros. todo”, dijo la compañía en un comunicado proporcionado a Wired. (Apple no respondió a la solicitud de comentarios de Espanol).

En cambio, la compañía está reenfocando sus esfuerzos en hacer crecer su función de seguridad de la comunicación, que estuvo disponible por primera vez en diciembre de 2021, luego de consultar a expertos para obtener comentarios sobre sus iniciativas de protección infantil. La herramienta Communication Safety es una función de control parental opcional que advierte a los menores y a sus padres cuando los archivos adjuntos de imágenes entrantes o enviados en iMessage son sexualmente explícitos y, de ser así, los desenfoca.

Apple fue criticada en 2021 por su plan de ofrecer una herramienta diferente que comenzaría a verificar los dispositivos iOS y las fotos de iCloud en busca de imágenes de abuso infantil. En el momento, la compañía dijo que la herramienta convertiría las fotos en iPhones y iPads en hashes ilegibles, o números complejos, almacenados en los dispositivos de los usuarios. Esos números se compararían con una base de datos de hash proporcionada por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) una vez que las imágenes se cargaron en el servicio de almacenamiento iCloud de Apple.

Muchos expertos en protección y seguridad infantil elogiaron el intento, reconociendo las responsabilidades y obligaciones éticas que tiene una empresa sobre los productos y servicios que crea. Pero también calificaron los esfuerzos como “profundamente preocupantes”, derivados en gran parte de cómo parte del proceso de verificación de imágenes de abuso infantil de Apple se realiza directamente en los dispositivos de los usuarios.

En un PDF publicado en su sitio web que describe la tecnología, a la que llamó NeuralHash, Apple intentó abordar los temores de que los gobiernos también pudieran obligar a Apple a agregar imágenes que no son de abuso infantil a la lista hash. “Apple rechazará tales demandas”, afirmó. “Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado rotundamente esas demandas. Continuaremos rechazándolas en el futuro”.

El anuncio de Apple sobre la eliminación de sus planes para la herramienta se produjo al mismo tiempo que la empresa anunció un puñado de nuevas características de seguridad.

Apple planea brindar un cifrado de extremo a extremo ampliado de los datos de iCloud para incluir copias de seguridad, fotos, notas, historiales de chat y otros servicios, en un movimiento que podría proteger aún más los datos de los usuarios, pero también aumentaría las tensiones con los funcionarios encargados de hacer cumplir la ley en todo el mundo. La herramienta, llamada Protección de datos avanzada, permitirá a los usuarios mantener ciertos datos más seguros de piratas informáticos, gobiernos y espías, incluso en el caso de una violación de datos de Apple, dijo la compañía.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy