Las empresas tecnológicas se verán obligadas a combatir el ‘tsunami de abuso infantil en línea’ por la enmienda al proyecto de ley de seguridad en línea | Noticias de ciencia y tecnología

La nueva legislación otorgará a los reguladores el poder de obligar a las empresas de tecnología a detener el abuso sexual de niños en sus plataformas.

La enmienda al proyecto de ley de seguridad en línea, que fue anunciada hoy por el Ministerio del Interior, permitirá a Ofcom exigir que las grandes empresas tecnológicas como Facebook y Google hagan sus “mejores esfuerzos” para prevenir, identificar y eliminar el abuso sexual infantil.

La medida fue bien recibida por la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños (NSPCC), que dijo que ayudaría a detener lo que llamó un “tsunami de abuso infantil en línea”.

La enmienda es un fortalecimiento pequeño pero significativo de los poderes de Ofcom, que se convertirá en el regulador de la tecnología y las redes sociales si el proyecto de ley de seguridad en línea propuesto se convierte en ley.

Permitirá a Ofcom insistir en la prueba de que se está abordando el abuso sexual infantil, incluso si cambia la tecnología detrás de la plataforma.

Meta, propietaria de Facebook, WhatsApp e Instagram, ha anunciado planes para bloquear de manera efectiva los mensajes directos de Facebook Messenger e Instagram mediante el cifrado de extremo a extremo, una tecnología que mantiene las conversaciones seguras, pero que también puede hacerlas inaccesibles para cualquiera que intente mantenerlas a salvo. .

Pros y contras del cifrado

Más sobre el proyecto de ley de seguridad en línea

La ministra del Interior, Priti Patel, condenó los planes de encriptación de Meta en los términos más enérgicos posibles, calificándolos de “moralmente incorrectos y peligrosos”, y las agencias policiales como Interpol y la Agencia Nacional contra el Crimen (NCA) del Reino Unido han criticado la tecnología.

Pero los funcionarios de Whitehall insisten en que no están en contra del cifrado en sí mismo, solo los problemas que plantea para las agencias de aplicación de la ley y las fuerzas policiales, que necesitan evidencia directa de participación en el abuso sexual infantil para iniciar investigaciones y realizar arrestos.

El año pasado, la Internet Watch Foundation con éxito bloqueó 8,8 millones de intentos de usuarios de Internet del Reino Unido para acceder a videos e imágenes de niños que sufrían abusos.

Ante una explotación a esta escala, los funcionarios argumentan que, como mínimo, deben mantener su nivel actual de acceso, que depende de que las empresas tecnológicas informen de los casos de abuso a las autoridades.

El caso de David Wilson, por ejemplo, que se hizo pasar por niñas en línea para obtener imágenes sexualmente explícitas de niños pequeños, se inició después de un informe de Meta. Wilson fue encarcelado durante 25 años en 2021 después de admitir 96 delitos.

Imagen:
Pedófilo condenado David Wilson

La nueva ley otorgará a Ofcom el poder de insistir en que las empresas tecnológicas, tanto dentro como fuera del Reino Unido, identifiquen y eliminen el contenido de abuso sexual infantil, lo que podría otorgar al regulador del Reino Unido la autoridad para descifrar el cifrado a nivel mundial.

Sin embargo, los funcionarios argumentan que esto no significa que las aplicaciones y otros servicios no puedan cifrarse, y dicen que existen tecnologías que pueden brindar a las fuerzas policiales acceso al material que necesitan sin comprometer la privacidad.

La nueva ley requerirá que las empresas de tecnología tomen medidas sobre el abuso sexual infantil “cuando sea proporcionado y necesario”, lo que otorga a Ofcom la capacidad de equilibrar la seguridad para los usuarios y la seguridad para los niños.

Sin embargo, si bien este movimiento puede sonar como un acuerdo de paz sobre el controvertido tema del cifrado, es posible que no signifique el final del conflicto.

Leer más: Proyecto de ley de seguridad en línea: el contenido ilegal y dañino podría evadir la nueva legislación de seguridad, advierten los parlamentarios
Nueva ley que prohíbe el flasheo cibernético se incluirá en el proyecto de ley de seguridad en línea

‘tsunami de abuso infantil en línea’

Los intentos de Apple de escanear imágenes de iPhone en busca de imágenes conocidas de abuso sexual infantil se retrasaron el año pasado después de una protesta de los activistas de la privacidad.

El sistema, llamado NeuralHash, fue diseñado para identificar imágenes de una manera que protegiera la privacidad haciendo el análisis localmente en el teléfono en lugar de en los centros de datos de Apple, pero los defensores de la privacidad argumentaron que los gobiernos o los estados autoritarios podrían abusar del software.

Los funcionarios de Whitehall dicen que los temores son exagerados y señalan los resultados del Safety Tech Challenge Fund, una colaboración financiada por el gobierno con la industria para producir tecnología que pueda “mantener a los niños seguros en entornos cifrados de extremo a extremo”, como un algoritmo que apaga la cámara automáticamente cuando detecta la filmación de desnudos.

El anuncio del cambio a la legislación se produce cuando los datos policiales obtenidos por la NSPCC mostraron lo que la organización benéfica describió como un “tsunami de abuso infantil en línea”.

Las solicitudes de libertad de información presentadas por la organización benéfica revelaron que los delitos de comunicación sexual con un niño habían aumentado un 80 % en cuatro años, llegando a 6156 en el último año registrado, un promedio de casi 120 delitos por semana.

Sir Peter Wanless, director ejecutivo de la NSPCC, acogió con satisfacción el cambio en la Ley de daños en línea y dijo que fortalecería las protecciones en torno a la mensajería privada.

“Este paso positivo muestra que no tiene que haber una compensación entre la privacidad y la detección y la interrupción del material de abuso infantil y el acicalamiento”, dijo a Sky News.

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.