Cómo un apuñalamiento en Israel resuena a través de la pelea por el discurso en línea

WASHINGTON – Stuart Force dice que encontró consuelo en Facebook después de que su hijo fuera asesinado a puñaladas en Israel por un miembro del grupo militante Hamas en 2016. Accedió al sitio para leer cientos de mensajes de condolencias en la página de su hijo.

Pero solo unos meses después, Force había decidido que Facebook era en parte culpable de la muerte, porque los algoritmos que impulsan la red social ayudaron a difundir el contenido de Hamas. Se unió a familiares de otras víctimas del terrorismo para demandar a la empresa, argumentando que sus algoritmos ayudaron en los crímenes al amplificar regularmente publicaciones que alentaban ataques terroristas.

El caso legal terminó sin éxito el año pasado cuando la Corte Suprema se negó a tomarlo. Pero los argumentos sobre el poder de los algoritmos han resonado en Washington, donde algunos miembros del Congreso citan el caso en un intenso debate sobre la ley que protege a las empresas de tecnología de la responsabilidad por el contenido publicado por los usuarios.

En una audiencia de la Cámara el jueves sobre la difusión de información errónea con los directores ejecutivos de Facebook, Twitter y Google, se espera que algunos legisladores se centren en cómo se escriben los algoritmos de las empresas para generar ingresos al publicar publicaciones en las que los usuarios tienden a hacer clic y responder a. Y algunos argumentarán que la ley que protege a las redes sociales de responsabilidad, la Sección 230 de la Ley de Decencia en las Comunicaciones, debería cambiarse para responsabilizar a las empresas cuando su software convierte los servicios de plataformas en cómplices de delitos cometidos fuera de línea.

“Los últimos años han demostrado que cuanto más escandaloso y extremista promueven las plataformas de redes sociales, más dinero para la participación y la publicidad obtienen”, dijo el representante Frank Pallone Jr., presidente del Comité de Energía y Comercio, que cuestionará en los directores ejecutivos.

“A estas alturas está dolorosamente claro que ni el mercado ni la presión pública impedirán que las empresas de redes sociales eleven la desinformación y el extremismo, por lo que no tenemos más remedio que legislar, y ahora es una cuestión de cuál es la mejor manera de hacerlo”, dijo Pallone. un demócrata de Nueva Jersey, agregó.

El ex presidente Donald J. Trump pidió la derogación de la Sección 230, y el presidente Biden hizo un comentario similar mientras hacía campaña para la Casa Blanca. Pero una derogación parece cada vez más dudosa, ya que los legisladores se centran en posibles cambios más pequeños a la ley.

Lea también:  Ahorre $ 50 en el teclado mecánico Razer BlackWidow V3

Alterar el escudo legal para tener en cuenta el poder de los algoritmos podría remodelar la web, porque la clasificación, la recomendación y la distribución algorítmicas son comunes en las redes sociales. Los sistemas deciden qué enlaces se muestran primero en el servicio de noticias de Facebook, qué cuentas se recomiendan a los usuarios en Instagram y qué video se reproduce a continuación en YouTube.

La industria, los activistas de la libertad de expresión y otros partidarios del escudo legal argumentan que los algoritmos de las redes sociales se aplican por igual a las publicaciones, independientemente del mensaje. Dicen que los algoritmos funcionan solo debido al contenido proporcionado por los usuarios y, por lo tanto, están cubiertos por la Sección 230, que protege los sitios que alojan publicaciones, fotos y videos de las personas.

Los tribunales han acordado. Un juez de distrito federal dijo que incluso una “lectura más generosa” de las acusaciones hechas por el Sr. Force “las coloca directamente dentro” de la inmunidad otorgada a las plataformas según la ley.

Un portavoz de Facebook se negó a comentar sobre el caso, pero señaló los comentarios de su director ejecutivo, Mark Zuckerberg, que respaldan algunos cambios en la Sección 230. Elena Hernández, portavoz de YouTube, que es propiedad de Google, dijo que el servicio había realizado cambios a sus “algoritmos de búsqueda y descubrimiento para garantizar que se muestre y se etiquete de forma destacada en los resultados de búsqueda y las recomendaciones un contenido más autorizado”.

Twitter señaló que había propuesto dar a los usuarios más opciones sobre los algoritmos que clasificaban sus líneas de tiempo.

“Los algoritmos son bloques de construcción fundamentales de los servicios de Internet, incluido Twitter”, dijo Lauren Culbertson, directora de políticas públicas de Estados Unidos de Twitter. “La regulación debe reflejar la realidad de cómo operan los diferentes servicios y cómo se clasifica y amplifica el contenido, al tiempo que se maximiza la competencia y se equilibra la seguridad y la libertad de expresión”.

Crédito…Academia Militar de EE. UU., A través de Associated Press

El caso de Force comenzó en marzo de 2016 cuando su hijo, Taylor Force, de 28 años, fue asesinado por Bashar Masalha mientras caminaba hacia una cena con compañeros de la escuela de posgrado en Jaffa, una ciudad portuaria israelí. Hamas, un grupo palestino, dijo que Masalha, de 22 años, era miembro.

Lea también:  Medical Alley nombra a Roberta Dressen directora ejecutiva

En los meses siguientes, Stuart Force y su esposa, Robbi, trabajaron para arreglar la propiedad de su hijo y limpiar su apartamento. Ese verano, recibieron una llamada de un grupo de litigios israelí, que tenía una pregunta: ¿Estaría dispuesta la familia Force a demandar a Facebook?

Después de que Force pasó algún tiempo en una página de Facebook que pertenece a Hamas, la familia accedió a demandar. La demanda encaja en un esfuerzo más amplio de las Fuerzas para limitar los recursos y herramientas disponibles para los grupos palestinos. Force y su esposa se aliaron con legisladores en Washington para aprobar una legislación que restringe la ayuda a la Autoridad Palestina, que gobierna parte de Cisjordania.

Sus abogados argumentaron en un tribunal estadounidense que Facebook le dio a Hamas “un algoritmo sofisticado y altamente desarrollado que facilita la capacidad de Hamas para llegar e involucrar a una audiencia a la que de otro modo no podría llegar con tanta eficacia”. La demanda dijo que los algoritmos de Facebook no solo habían amplificado las publicaciones, sino que habían ayudado a Hamas recomendando grupos, amigos y eventos a los usuarios.

El juez de distrito federal, en Nueva York, falló en contra de los reclamos, citando la Sección 230. Los abogados de la familia Force apelaron a un panel de tres jueces de la Corte de Apelaciones del Segundo Circuito de EE. UU., Y dos de los jueces fallaron en su totalidad a favor Facebook. El otro, el juez Robert Katzmann, escribió una disidencia de 35 páginas a parte del fallo, argumentando que las recomendaciones algorítmicas de Facebook no deberían estar cubiertas por las protecciones legales.

“La creciente evidencia sugiere que los proveedores diseñaron sus algoritmos para llevar a los usuarios hacia el contenido y las personas con las que los usuarios estaban de acuerdo, y que lo han hecho demasiado bien, empujando a las almas susceptibles cada vez más por caminos oscuros”, dijo.

A fines del año pasado, la Corte Suprema rechazó una llamada para escuchar un caso diferente que habría probado el escudo de la Sección 230. En una declaración adjunta a la decisión del tribunal, el juez Clarence Thomas pidió que el tribunal considere si las protecciones de la Sección 230 se habían ampliado demasiado, citando la demanda del Sr. Force y la opinión del juez Katzmann.

Lea también:  Cómo vencer a Banshee en Tiny Tina's Wonderlands

El juez Thomas dijo que la corte no necesitaba decidir en el momento si controlar las protecciones legales. “Pero en un caso apropiado, nos corresponde hacerlo”, dijo.

Algunos legisladores, abogados y académicos dicen que el reconocimiento del poder de los algoritmos de las redes sociales para determinar lo que la gente ve hace mucho tiempo. Las plataformas generalmente no revelan exactamente qué factores utilizan los algoritmos para tomar decisiones y cómo se comparan entre sí.

“La amplificación y los sistemas de toma de decisiones automatizados están creando oportunidades de conexión que de otra manera no serían posibles”, dijo Olivier Sylvain, profesor de derecho en la Universidad de Fordham, quien ha presentado el argumento en el contexto de los derechos civiles. “Están contribuyendo materialmente al contenido”.

Ese argumento ha aparecido en una serie de demandas que sostienen que Facebook debería ser responsable de la discriminación en la vivienda cuando su plataforma podría apuntar a anuncios de acuerdo con la raza de un usuario. Un proyecto de ley elaborado por la Representante Yvette D. Clarke, Demócrata de Nueva York, quitaría la inmunidad de la Sección 230 de los anuncios dirigidos que violan la ley de derechos civiles.

Un proyecto de ley presentado el año pasado por los representantes Tom Malinowski de Nueva Jersey y Anna G. Eshoo de California, ambos demócratas, eliminaría las protecciones de la Sección 230 de las plataformas de redes sociales cuando sus algoritmos amplificaran contenido que violaba algunas leyes antiterroristas y de derechos civiles. El comunicado de prensa que anuncia el proyecto de ley, que se volverá a presentar el miércoles, cita la demanda de la familia Force contra Facebook. Malinowski dijo que se había inspirado en parte por la disidencia del juez Katzmann.

Los críticos de la legislación dicen que puede violar la Primera Enmienda y, debido a que hay tantos algoritmos en la web, podría abarcar una gama más amplia de servicios de lo que pretenden los legisladores. También dicen que hay un problema más fundamental: la regulación de la amplificación algorítmica fuera de existencia no eliminaría los impulsos que la impulsan.

“Hay algo de lo que no se puede escapar”, dijo Daphne Keller, directora del Programa de Regulación de Plataformas del Centro de Políticas Cibernéticas de la Universidad de Stanford, “que es la demanda humana de contenido basura”.

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.