Home » Facebook y la normalización de la desviación

Facebook y la normalización de la desviación

by admin

Cuando a la socióloga Diane Vaughan se le ocurrió el término “la normalización de la desviación”, se refería a NASA el desprecio de los administradores por la falla que causó la explosión del transbordador espacial Challenger, en 1986. La idea era que las personas en una organización pueden aceptar un problema tanto que ya no lo consideren problemático. (En el caso del Challenger, NASA Se había advertido que era probable que las juntas tóricas del transbordador fallaran en temperaturas frías). Considere Facebook: durante años, su liderazgo ha sabido que la red social ha incitado a la polarización política, el malestar social e incluso la limpieza étnica. Más recientemente, ha sido consciente de que sus algoritmos han promovido campañas de desinformación y desinformación sobre COVID-19-19 y vacunas. Durante el año pasado, la compañía hizo intentos parciales de eliminar información falsa sobre la pandemia y emitió su prohibición más completa en febrero. Sin embargo, un análisis realizado el mes pasado por el grupo sin fines de lucro First Draft, encontró que al menos 3200 publicaciones que hacen afirmaciones infundadas sobre COVID-19-Se habían publicado 19 vacunas después de la prohibición de febrero. Hace dos semanas, el publicación principal en Facebook sobre las vacunas fue de Tucker Carlson, en Fox News, “explicando” que no funcionan.

A lo largo de los años, Mark Zuckerberg, director ejecutivo de Facebook, ha emitido una cascada de disculpas por las violaciones a la privacidad de la empresa, los sesgos algorítmicos y la promoción del discurso del odio, entre otros problemas. Con demasiada frecuencia, la empresa parece cambiar de rumbo sólo después de que dichos temas se hagan públicos; en muchos casos, los empleados de Facebook, las partes lesionadas o la evidencia objetiva le habían informado de esas fallas mucho antes. La firma tardó meses en reconocer que los anuncios políticos en su plataforma se estaban utilizando para manipular a los votantes y luego crear una forma para que los usuarios averiguaran quién estaba pagando por ellos. El pasado diciembre, la compañía finalmente reconfiguró su algoritmo de incitación al odio, después de años de críticas de grupos negros de que el algoritmo eliminó de manera desproporcionada las publicaciones de usuarios negros que discutían la discriminación racial. “Creo que es más útil hacer que las cosas sucedan y luego, como, disculparse más tarde”, dijo Zuckerberg al principio de su carrera. Hemos sido testigos de las consecuencias desde entonces.

Así es como se ha visto la normalización de la desviación de Facebook en los primeros meses de 2021: en febrero, los correos electrónicos internos de la empresa obtenidos por ProPublica revelaron que, en 2018, el gobierno turco exigió que Facebook bloqueara las publicaciones, en Turquía, de un grupo principalmente kurdo. grupo de milicias que los estaba utilizando para alertar a los civiles kurdos sirios de los inminentes ataques turcos contra ellos, y dejó en claro, según Facebook, “que no hacerlo habría provocado el cierre completo de sus servicios en el país”. Sheryl Sandberg, directora de operaciones de Facebook, le dijo a su equipo: “Estoy bien con esto”. (Reuters informó que el gobierno turco había detenido a casi seiscientas personas en Turquía “por publicaciones en las redes sociales y protestas que criticaban su ofensiva militar en Siria”).

El 3 de abril Alon Gal, el director de tecnología de la firma de inteligencia de delitos cibernéticos Hudson Rock, informó que, en algún momento antes de septiembre de 2019, la información personal de más de 500 millones de usuarios de Facebook había sido “raspada” y publicada en un sitio web público frecuentado por piratas informáticos. , donde todavía está disponible. Los datos robados incluían nombres, direcciones, números de teléfono, direcciones de correo electrónico y otra información de identificación. Pero, según Mike Clark, director de gestión de productos de Facebook, extraer datos no es lo mismo que piratear datos, un tecnicismo que la mayoría de las personas perderán, por lo que, aparentemente, la empresa no estaba obligada a hacer saber a los usuarios que su información personal Ha sido robado. “Todavía tengo que ver a Facebook reconociendo esta negligencia absoluta”, escribió Gal. Un Memo interno sobre la violación se compartió inadvertidamente con un periodista holandés, quien la publicó en línea. Afirmó que “suponiendo que el volumen de prensa continúe disminuyendo, no estamos planeando declaraciones adicionales sobre este tema. Sin embargo, a largo plazo, esperamos más incidentes de raspado y creemos que es importante hacerlo. . . normalizar el hecho de que esta actividad ocurre con regularidad “. El 16 de abril, se anunció que el grupo Digital Rights Ireland planea demandar a Facebook por la violación, en lo que llama “una acción masiva”; y el regulador de privacidad de Irlanda, la Comisión de Protección de Datos, ha abierto una investigación para determinar si la empresa violó las normas de datos de la UE. (La sede europea de Facebook se encuentra en Dublín).

El 12 de abril, el guardián reveló nuevos detalles sobre la experiencia de Sophie Zhang, una científica de datos que publicó un memorando de despedida de advertencia a sus compañeros de trabajo, antes de dejar la empresa, en agosto pasado. Según el periódico, Zhang fue despedido por “dedicar demasiado tiempo a desarraigar el compromiso cívico falso y no dedicar suficiente tiempo a las prioridades definidas por la dirección”. “En los tres años que he pasado en Facebook, he encontrado múltiples intentos descarados de gobiernos nacionales extranjeros de abusar de nuestra plataforma a gran escala para engañar a su propia ciudadanía”, escribió Zhang en el memorando, que, el guardián informes, Facebook intentó suprimir. “Simplemente no nos importaba lo suficiente como para detenerlos”. Una laguna conocida en uno de los productos de Facebook permitió a los gobiernos corruptos crear seguidores falsos y “me gusta” falsos, que luego activaron los algoritmos de Facebook para impulsar su propaganda y legitimidad. De acuerdo con la guardián, cuando Zhang alertó a los altos mandos sobre cómo estaba siendo utilizado por el gobierno de Honduras, un ejecutivo le dijo: “No creo que Honduras esté muy presente en las mentes de la gente aquí”. (Un portavoz de Facebook le dijo al periódico: “Estamos fundamentalmente en desacuerdo con la caracterización de la Sra. Zhang de nuestras prioridades y esfuerzos para erradicar el abuso en nuestra plataforma”).

El 13 de abril, The Markup, un sitio web de investigación de interés público sin fines de lucro, informó que el negocio publicitario de Facebook estaba monetizando y reforzando la polarización política en los Estados Unidos, al permitir que las empresas se dirigieran a los usuarios en función de sus creencias políticas. ExxonMobil, por ejemplo, estaba sirviendo a los liberales con anuncios sobre sus iniciativas de energía limpia, mientras que a los conservadores se les dijo que “la industria del petróleo y el gas es EL motor que impulsa la economía de Estados Unidos. Ayúdenos a asegurarnos de que las regulaciones innecesarias no desaceleren el crecimiento energético “. ¿Cómo supo ExxonMobil a quién, específicamente, dirigirse? Según el informe, desde el seguimiento persistente de Facebook de las actividades y comportamientos de los usuarios dentro y fuera de Facebook, y su entrega de estas “audiencias personalizadas” a aquellos que están dispuestos a pagar por anuncios en su plataforma.

El 19 de abril, Monika Bickert, vicepresidenta de política de contenido de Facebook, anunció que, en previsión de un veredicto en el juicio de Derek Chauvin, la compañía eliminaría el discurso de odio, las llamadas a la violencia y la información errónea relacionada con ese juicio. Esa acomodación fue un reconocimiento tácito del poder que tienen los usuarios de la plataforma para incitar a la violencia y difundir información peligrosa, y recordó la decisión de la compañía, después de las elecciones de noviembre, de modificar su algoritmo de suministro de noticias para suprimir los medios partidistas, como como Breitbart. A mediados de diciembre, se restauró el algoritmo original, lo que provocó que varios empleados informaran al Veces’ Kevin Roose que los ejecutivos de Facebook habían reducido o vetado los esfuerzos anteriores para combatir la desinformación y el discurso de odio en la plataforma, “ya sea porque dañan las cifras de uso de Facebook o porque los ejecutivos temían que dañarían desproporcionadamente a los editores de derecha”. Según el Proyecto de Transparencia Tecnológica, los extremistas de derecha pasaron meses en Facebook organizando su asalto al Capitolio, el 6 de enero. La semana pasada, un informe interno de Facebook obtenido por Buzzfeed News confirmó el fracaso de la compañía para detener los esfuerzos coordinados de “Stop the Steal” en la plataforma. Poco después, Facebook eliminó el informe de su tablero de mensajes para empleados.

Facebook tiene casi tres mil millones de usuarios. Es común comparar la “población” de la empresa con la población de países, y maravillarse de que sea más grande que el más grande de ellos, China e India, juntos. Las decisiones políticas de Facebook a menudo tienen ramificaciones geopolíticas y sociales descomunales, a pesar de que nadie ha elegido o designado a Zuckerberg y su personal para dirigir el mundo. La guardián El artículo sobre la experiencia de Zhang, por ejemplo, concluye que “algunos miembros del personal de políticas de Facebook actúan como una especie de poder legislativo en la aproximación de Facebook a un gobierno global”.

Es posible ver la Junta de Supervisión de Facebook, un cuerpo deliberativo compuesto por veinte juristas y académicos internacionales estimados, que la compañía estableció, en 2018, para pronunciarse sobre decisiones de contenido contencioso, como otra rama de su gobierno paralelo autodesignado. De hecho, cuando Zuckerberg anunció la creación de la junta, la llamó “casi como una Corte Suprema”. Pronto, la junta emitirá lo que probablemente sea su fallo más polémico hasta el momento: si se mantiene la prohibición de Donald Trump, que Facebook instituyó después de la insurrección del 6 de enero, sobre la base de que, como dijo Zuckerberg en ese momento, creemos que los riesgos de permitir que el presidente continúe utilizando nuestro servicio durante este período son simplemente demasiado grandes “. Esa decisión no será un referéndum sobre la desastrosa presidencia de Trump ni sobre su promoción de Stop the Steal. Más bien, responderá una pregunta única y discreta: ¿Trump violó las políticas de Facebook sobre lo que está permitido en su plataforma? Este breve resumen está codificado en el estatuto de la Junta de Supervisión, que dice que “la junta revisará las decisiones de cumplimiento del contenido y determinará si fueron consistentes con las políticas y valores de contenido de Facebook”.

Como han vuelto a demostrar los acontecimientos de los últimos meses, las políticas y los valores de Facebook han normalizado el tipo de desviación que permite un desprecio por las regiones y poblaciones que no son “muy importantes para las personas”. No son democráticos ni humanistas, sino corporativos. Cualquiera sea el camino que tome la decisión de Trump, o cualquier decisión tomada por la Junta de Supervisión, esto seguirá siendo cierto.

.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy