Home » Inteligencia artificial, reconocimiento facial, frenazos en la nueva propuesta de la UE

Inteligencia artificial, reconocimiento facial, frenazos en la nueva propuesta de la UE

by admin

El brazo ejecutivo de la Unión Europea propuso un proyecto de ley que limitaría el uso policial del software de reconocimiento facial en público y prohibiría el marketing o el uso de ciertos tipos de sistemas de inteligencia artificial, en uno de los esfuerzos más amplios hasta ahora para regular las aplicaciones de inteligencia artificial de alto riesgo.

El proyecto de ley propuesto el miércoles también crearía una lista de los llamados usos de alto riesgo de la IA que estarían sujetos a nueva supervisión y estándares para su desarrollo y uso, como infraestructura crítica, admisiones universitarias y solicitudes de préstamos. Los reguladores podrían multar a una empresa hasta el 6% de sus ingresos mundiales anuales por las infracciones más graves, aunque en la práctica los funcionarios de la UE rara vez imponen sus multas máximas.

El proyecto de ley es uno de los más amplios de su tipo propuesto por un gobierno occidental, y forma parte de la expansión de la UE de su papel como ejecutor tecnológico global.

En los últimos años, la UE ha tratado de tomar un liderazgo mundial en la redacción y aplicación de nuevas regulaciones destinadas a domar los supuestos excesos de las grandes empresas tecnológicas y frenar los peligros potenciales de las nuevas tecnologías, en áreas que van desde la competencia digital hasta la moderación del contenido en línea. La nueva ley de privacidad del bloque, el Reglamento General de Protección de Datos, ayudó a establecer un modelo para reglas de aplicación amplia respaldadas por multas severas que han sido seguidas de alguna manera por otros países y algunos estados de EE.

COMPARTE TUS PENSAMIENTOS

¿Cómo deberían los gobiernos equilibrar la privacidad y la innovación? Únase a la conversación a continuación.

La propuesta del miércoles enfrenta un largo camino —y posibles cambios— antes de que se convierta en ley. En la UE, tales leyes deben ser aprobadas tanto por el Consejo Europeo, que representa a los 27 gobiernos nacionales del bloque, como por el Parlamento Europeo elegido directamente, que puede llevar años.

Algunos activistas por los derechos digitales, aunque aplaudieron partes de la legislación propuesta, dijeron que otros elementos parecen demasiado vagos y ofrecen demasiadas lagunas. Otros, alineados con la industria, argumentaron que las reglas propuestas por la UE darían una ventaja a las empresas en China, que no las enfrentarían.

“Va a hacer que sea prohibitivamente caro o incluso tecnológicamente inviable construir IA en Europa”, dijo Benjamin Mueller, analista de políticas senior en el Centro de Innovación de Datos, parte de un grupo de expertos alineado con la tecnología. “EE. UU. Y China van a mirar con diversión cómo la UE pone de rodillas a sus propias empresas emergentes”.

Sin embargo, algunos cabilderos de la industria tecnológica dijeron que se sentían aliviados de que el borrador no fuera más draconiano y aplaudieron el enfoque de imponer una supervisión estricta solo sobre algunos tipos de los llamados usos de alto riesgo de la IA, como el software para infraestructura crítica y algoritmos que utiliza la policía para predecir delitos.

“Es positivo que la comisión haya adoptado este enfoque basado en el riesgo”, dijo Christian Borggreen, vicepresidente y director de la oficina de Bruselas de la Computer & Communications Industry Association, que representa a varias grandes empresas de tecnología como Amazon, Facebook y Google.

Hay un puñado de prácticas específicas que enfrentan prohibiciones absolutas en el proyecto de ley. Además de los sistemas de crédito social, como los utilizados por el gobierno chino, también prohibiría los sistemas de inteligencia artificial que utilizan “técnicas subliminales” o se aprovechan de las personas con discapacidades para “distorsionar materialmente el comportamiento de una persona” de una manera que podría causar daños físicos. o daño psicológico.

El proyecto de ley crearía una nueva supervisión para los usos de alto riesgo de la IA.


Foto:

focke strangmann / Shutterstock

Si bien la policía generalmente no podría usar lo que se describe como “sistemas de identificación biométrica remota”, como el reconocimiento facial, en lugares públicos en tiempo real, los jueces pueden aprobar exenciones que incluyen encontrar niños secuestrados, detener amenazas terroristas inminentes y localizar sospechosos de ciertos delitos, que van desde el fraude hasta el asesinato.

“La lista de exenciones es increíblemente amplia”, dijo Sarah Chander, asesora principal de políticas de European Digital Rights, una red de organizaciones no gubernamentales. Tal lista “en cierto modo frustra el propósito de afirmar que algo es una prohibición”.

Más sobre regulación tecnológica en Europa

Los grandes bancos han sido pioneros en el trabajo de entregar sus algoritmos de inteligencia artificial a los reguladores, como parte de los esfuerzos del gobierno para prevenir otra crisis crediticia global. Eso los convierte en un caso de prueba de cómo una gama más amplia de empresas eventualmente tendrán que hacer lo mismo, según Andre Franca, exdirector del equipo de gestión de riesgos de modelos de Goldman Sachs y actual director de ciencia de datos en la startup de IA causaLens.

En la última década, por ejemplo, los bancos han tenido que contratar equipos de personas para ayudar a los reguladores actuales con el código matemático subyacente a sus modelos de IA, que en algunos casos comprenden más de 100 páginas por modelo, dijo el Dr. Franca. Las empresas de tecnología y las agencias de publicidad que utilizan IA pueden tener que producir documentación similar para los reguladores.

El nuevo proyecto de ley permitiría a la Comisión Europea, el brazo ejecutivo de la UE, identificar nuevos usos de la inteligencia artificial para agregarlos a la lista de alto riesgo y someterlos a una supervisión más estricta. Eso incluye evaluaciones continuas de riesgos, requisitos de calidad para los datos utilizados para entrenar el software de IA y obligaciones para que los humanos supervisen el funcionamiento de los algoritmos.

La UE también podría enviar equipos de reguladores a las empresas para que examinen los algoritmos en persona si entran en las categorías de alto riesgo establecidas en las regulaciones, dijo el Dr. Franca. Eso incluye sistemas que identifican la información biométrica de las personas (el rostro o las huellas dactilares de una persona) y algoritmos que podrían afectar la seguridad de una persona. Los reguladores del BCE a menudo examinan personalmente el código informático de los bancos durante varios días de talleres y reuniones, agregó.

Si bien algunos sistemas de inteligencia artificial de menor riesgo, como los chatbots, se enfrentarían a la obligación de informar a los usuarios que no son personas reales, la UE dice que la mayoría de los usos de la inteligencia artificial, incluidos los videojuegos o los filtros de spam, no tendrían nuevas reglas según el proyecto de ley.

Es posible que las nuevas regulaciones no tengan necesariamente el mismo impacto que el GDPR, simplemente porque la inteligencia artificial se define de manera tan amplia, según Julien Cornebise, profesor asociado honorario de ciencias de la computación en el University College de Londres y ex científico investigador de Google.

“La IA es una portería en movimiento”, dijo. “Nuestros teléfonos hacen cosas todos los días que se hubieran considerado ‘IA’ hace 20 años. Existe el riesgo de que la regulación se pierda de definición o se vuelva obsoleta rápidamente “.

Escribir a Sam Schechner en [email protected] y Parmy Olson en [email protected]

Copyright © 2020 Dow Jones & Company, Inc. Todos los derechos reservados. 87990cbe856818d5eddac44c7b1cdeb8

.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy