Twitch actuará sobre delitos ‘graves’ que sucedan fuera de la plataforma

Twitch es finalmente aceptar su responsabilidad como una máquina de microcelebridad que hace reyes, no solo un servicio o una plataforma. Hoy, la empresa propiedad de Amazon anunció una política formal y pública para investigar las graves indiscreciones de los streamers en la vida real o en servicios como Discord o Twitter.

En junio pasado, decenas de mujeres presentaron acusaciones de conducta sexual inapropiada contra destacados transmisores de videojuegos en Twitch. En Twitter y otras redes sociales, compartieron experiencias desgarradoras de streamers que aprovecharon su relativo renombre para traspasar los límites, lo que resultó en graves daños personales y profesionales. Twitch eventualmente prohibiría o suspendería a varios streamers acusados, un par de los cuales estaban “asociados” o podían recibir dinero a través de suscripciones a Twitch. Al mismo tiempo, el movimiento #MeToo de Twitch generó preguntas más amplias sobre qué responsabilidad tiene el servicio por las acciones de sus usuarios más visibles, tanto dentro como fuera de la transmisión.

En el curso de la investigación de esos usuarios problemáticos, la directora de operaciones de Twitch, Sara Clemens, le dice a WIRED que los equipos de moderación y aplicación de la ley de Twitch aprendieron lo difícil que es revisar y tomar decisiones basadas en el comportamiento de los usuarios en IRL o en otras plataformas como Discord. “Nos dimos cuenta de que no tener una política para observar el comportamiento fuera del servicio estaba creando un vector de amenaza para nuestra comunidad que no habíamos abordado”, dice Clemens. Hoy, Twitch anuncia su solución: una política fuera de servicios. En asociación con un bufete de abogados de terceros, Twitch investigará los informes de delitos como agresión sexual, comportamiento extremista y amenazas de violencia que ocurren fuera de la corriente.

“Hemos estado trabajando en ello durante algún tiempo”, dice Clemens. “Ciertamente es un espacio inexplorado”.

Twitch está a la vanguardia para ayudar a garantizar que no solo el contenido, sino también las personas que lo crean, sean seguros para la comunidad. (La política se aplica a todos: socios, afiliados e incluso vapores relativamente desconocidos). Durante años, los sitios que apoyan la celebridad digital han prohibido a los usuarios por indiscreciones fuera de la plataforma. En 2017, PayPal eliminó a una franja de supremacistas blancos. En 2018, Patreon eliminó al YouTuber antifeminista Carl Benjamin, conocido como Sargon of Akkad, por discurso racista en YouTube. Mientras tanto, los sitios que crecen directamente o dependen de la celebridad digital no tienden a examinar rigurosamente a sus usuarios más famosos o influyentes, especialmente cuando esos usuarios relegan su comportamiento problemático a servidores de Discord o partes de la industria.

A pesar de que nunca publicaron una política formal, los servicios de creación de reyes como Twitch y YouTube, en el pasado, han desprestigiado a los usuarios que creían que eran perjudiciales para sus comunidades por cosas que dijeron o hicieron en otros lugares. A fines de 2020, YouTube anunció que desmonetizó temporalmente el canal de bromas NELK después de que los creadores lanzaran rabietas en la Universidad Estatal de Illinois cuando el límite de reunión social era 10. Esas acciones, y declaraciones publicas sobre ellos, son la excepción más que la regla.

“Las plataformas a veces tienen mecanismos especiales para escalar esto”, dice Kat Lo, líder de moderación en Meedan, una empresa sin fines de lucro de alfabetización tecnológica, refiriéndose a las líneas directas que los usuarios de alto perfil suelen tener con los empleados de la empresa. Ella dice que la moderación fuera de los servicios ha estado ocurriendo en las plataformas más grandes durante al menos cinco años. Pero, en general, dice, las empresas no suelen anunciar ni formalizar estos procesos. “Investigar el comportamiento fuera de la plataforma requiere una alta capacidad de investigación, encontrando evidencia que pueda ser verificable. Es difícil estandarizar “.

En la segunda mitad de 2020, Twitch recibió 7,4 millones de informes de usuarios por “todo tipo de violaciones” y actuó sobre los informes 1,1 millones de veces, según su reciente informe de transparencia. En ese período, Twitch actuó en 61.200 casos de presunta conducta de odio, acoso sexual y acoso. Eso es un gran esfuerzo. (Twitch actuó en 67 casos de terrorismo y elevó 16 casos a las fuerzas del orden). Aunque constituyen una gran parte de los informes de los usuarios, el acoso y la intimidación no se incluyen entre los comportamientos enumerados que Twitch comenzará a investigar fuera de la plataforma a menos que también esté ocurriendo en Twitch. El comportamiento fuera de los servicios que desencadenará investigaciones incluye lo que la publicación del blog de Twitch llama “delitos graves que representan un riesgo sustancial para la seguridad de la comunidad”: violencia mortal y extremismo violento, amenazas explícitas y creíbles de violencia masiva, pertenencia a grupos de odio, etc. Si bien la intimidación y el acoso no están incluidos ahora, Twitch dice que su nueva política está diseñada para escalar.

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.