#CBC: “El video de disparo de la mezquita viral plantea preguntas sobre las responsabilidades de las empresas de medios sociales ” #BusinessNews #ValorDelWeb

Advertisements:

La transmisión en vivo por Facebook y el posterior intercambio generalizado de un tiroteo en el que murieron 49 personas en dos mezquitas en Christchurch, Nueva Zelanda, está generando dudas sobre las capacidades y responsabilidades de las empresas de medios sociales para evitar que sus plataformas se utilicen para propagar el odio e inspirar violencia.

El ataque durante las oraciones del viernes, el 15 de marzo, fue grabado y transmitido en vivo en Facebook, aparentemente por el atacante, hasta que la policía contactó a la compañía de medios sociales para eliminar el video.

Philip Mai, director de negocios y comunicaciones en el Laboratorio de Medios Sociales de la Universidad de Ryerson, dijo que parece que el video original fue retirado más rápido que en incidentes anteriores como este.

Pero notó que aún tomaba algo de tiempo porque requería que la policía interviniera.

“Para entonces, el daño ya está hecho”, dijo.

El video, de 17 minutos de duración en toda su extensión, se compartió posteriormente en varias plataformas de redes sociales, incluyendo Twitter y YouTube, durante horas, a pesar de los llamamientos de la policía para no compartir los videos y los intentos de las plataformas sociales de eliminar las copias en circulación.

El reportero técnico de BuzzFeed, Ryan Mac, informó que vería copias que circularán 18 horas después.

Mai dijo que los sitios de medios sociales a menudo pueden eliminar contenido, como videos musicales que creen que violan los derechos de autor de una persona de forma mucho más proactiva y automática, utilizando inteligencia artificial.

Y Facebook anunció el viernes que planeaba usar inteligencia artificial para marcar automáticamente “venganza porno” para su eliminación.

“La tecnología está ahí”, dijo Mai. “Pero por el motivo que sea, este tipo de cosas no se marca tan rápidamente como otros tipos de contenido “.

Reconoció que los videos en vivo son únicos y pueden ser más difíciles de detectar y marcar que el contenido como los videos musicales, pero dijo que ha habido suficientes incidentes de este tipo para programar una computadora para observar ciertos patrones.

¿Necesidad de regulación?

Sin embargo, implementar un sistema de este tipo, junto con un proceso para que las personas puedan apelar la remoción, y contratar personas para hacer la llamada final podría ser costoso, agregó. Es algo que las empresas pueden optar por no hacer si no lo exige la ley.

Pienso que los gobiernos deberían estar buscando leyes y tener un debate público sobre qué responsabilidad tienen estas compañías “, dijo.” ¿Qué quiere la sociedad de estas compañías y qué debemos imponerles? “

Stephanie Carver, profesora asistente de asuntos internacionales que investiga el terrorismo, dijo a CBC News Network que cree que los gobiernos deberían hacer más preguntas a las compañías de medios sociales y su papel para facilitar el intercambio de información extremista.

Si bien muchas compañías de medios sociales han empezado a tomar el contenido extremista islamista más seriamente y a lidiar con él, dijo que “han estado mucho menos dispuestos” a hacer eso con el extremismo de extrema derecha, y los gobiernos deberían preguntar por qué.

“¿Y necesitamos algún tipo de regulación en el futuro que … no solo los obliga a adherirse a la ley, sino a sus propios estándares establecidos sobre la violencia y la retórica odiosa?” ella dijo.

Descargo de responsabilidad: siga este enlace aquí para ver la fuente de este artículo. Imágenes y derechos de contenido para los respectivos propietarios según la fuente. Todos los derechos de autor del propietario de este artículo según la fuente.

Advertisements:

Andrew Gozliq

0 Comments

No comments!

There are no comments yet, but you can be first to comment this article.

Leave reply

Only registered users can comment.