Documentos traducido, puedes ver el original aquí.
Deberíamos tener conversaciones sobre el impacto de las redes sociales en nuestras vidas.
«El dilema de las redes sociales» (Un híbrido entre documental y drama que ahonda en el negocio de las redes sociales, el poder que ejercen y la adicción que generan en nosotros: la carnada perfecta).
Pero «El dilema de las redes sociales» en lugar de ofrecer una visión matizada de la tecnología, ofrece una visión distorsionada de cómo son las redes sociales.
Las plataformas funcionan para crear un chivo expiatorio conveniente para los problemas que son difíciles y complejos. Los creadores de la película no incluyen información de quienes trabajan actualmente en el empresas o cualquier experto que adopte una mirada diferente a la narrativa que presenta la película.
Tampoco reconocen, de forma crítica o no, los esfuerzos que ya han realizado las empresas para abordar muchos de los problemas que plantean. En cambio, se basan en los comentarios de aquellos que no han estado dentro durante muchos años. Estos son los puntos centrales en los que la película se equivoca.
ADICCION
Facebook construye sus productos para crear valor, no ser adictivo.
Nuestros equipos de productos de News Feed no están incentivados para crear funciones que aumentan el tiempo dedicado a nuestros productos. En su lugar, queremos asegurarnos de ofrecer valor a las personas, no solo impulsamos el uso.
Por ejemplo, en 2018 cambiamos nuestra clasificación de News Feed para priorizar interacciones sociales significativas y despriorizar cosas como videos virales.
El cambio provocó una disminución de 50 millones de horas diarias en el tiempo dedicado a Facebook. Ese no es el tipo de cosas que haces si simplemente estás intentando impulsar a las personas a utilizar más sus servicios.
Colaboramos con los principales expertos en salud mental, organizaciones y académicos, y que nuestros equipos de investigación se dediquen a comprender el impacto que las redes sociales pueden tener en el bienestar de las personas.
Queremos que las personas controlen cómo usan nuestros productos, por eso proporcionamos herramientas de gestión del tiempo como un panel de actividades, un diario recordatorio y formas de limitar las notificaciones. Ya hemos empezado a designar equipos de productos a centrarse en otras áreas como la soledad, la raza justicia, tutoría, salud mental e innovación responsable.
Seguiremos innovando y encontrando nuevas herramientas para ayudar a que la gente se mantenga a salvo.
USTED NO ES EL PRODUCTO
Facebook está financiado por publicidad así que queda libre para la gente.
Facebook es una plataforma respaldada por anuncios, lo que significa que vender anuncios nos permite ofrecer a todos los demás la posibilidad de conectarse de forma gratuita. Este modelo permite que las pequeñas empresas y los emprendedores crezcan y compitan con marcas más grandes para encontrar nuevos clientes más fácilmente.
Pero incluso cuando las empresas compran anuncios en Facebook, no saben quién eres. Nosotros proporcionar a los anunciantes informes sobre el tipo de personas que ven sus anuncios y su rendimiento, pero no compartimos información que lo identifique personalmente a menos que nos dé su permiso. No vendemos su información a ninguna persona.
Siempre puede ver los «intereses» asignados en sus preferencias de anuncios y, si lo desea, elimínelos aquí.
ALGORITMOS
El algoritmo de Facebook no está «loco». Mantiene la plataforma relevante y útil.
Facebook usa algoritmos para mejorar la experiencia de las personas que usan nuestras aplicaciones, como cualquier aplicación de citas, Amazon, Uber y muchas otras aplicaciones orientadas al consumidor con las que las personas interactúan todos los días.
Eso también incluye Netflix, que utiliza un algoritmo para determinar quién cree que debería ver la película «El dilema de las redes sociales» y luego se la recomiende.
Esto sucede con cada contenido que aparece en el servicio.
Los algoritmos y el aprendizaje automático mejoran nuestros servicios. Por ejemplo, en Facebook, los usamos para mostrar contenido que es más relevante para las personas están interesadas, ya sean publicaciones de amigos o anuncios. Retratar algoritmos como «locos» pueden ser un buen alimento para documentales de conspiración, pero la realidad es mucho menos entretenida.
DATOS
Facebook ha hecho mejoras en toda la empresa para proteger la intimidad de la gente .
Durante el último año, hemos realizado cambios significativos como parte de nuestro acuerdo con la Comisión Federal de Comercio. Hemos creado nuevos salvaguardas sobre cómo se utilizan los datos, dando a las personas nuevos controles sobre administrar sus datos y ahora tener a miles de personas trabajando en proyectos relacionados con la privacidad para que podamos seguir cumpliendo con nuestra privacidad compromisos y mantener segura la información de las personas.
A pesar de lo que sugiere la película, tenemos políticas que prohíben a las empresas enviarnos datos confidenciales sobre las personas, incluida la salud de los usuarios, información o números de seguro social, a través de herramientas comerciales como el Facebook Pixel y SDK. No queremos estos datos por lo que tomamos medidas para evitar que los datos potencialmente confidenciales enviados por las empresas, sean utilizado en nuestros sistemas.
Hemos pedido públicamente a los reguladores de todo el mundo que se unan a nosotros ayudando a que las reglas de Internet sean correctas y apoyamos la regulación que puede orientar a la industria en conjunto. Esto es algo que preguntamos de líderes, no huir.
POLARIZACIÓN
Tomamos medidas para reducir contenido que podría impulsar la polarización.
La verdad es que la polarización y el populismo han existido mucho antes que Facebook y otras plataformas en línea que fueron creadas, y conscientemente tomar medidas dentro del producto para gestionar y minimizar la propagación de este tipo de contenido.
La abrumadora mayoría del contenido que la gente ve en Facebook no es polarizante ni siquiera político, es contenido cotidiano de la gente amigos y familia.
Si bien algunas publicaciones de fuentes de noticias más polarizadoras reciben mucha interacciones, me gusta o comentarios, este contenido es un pequeño porcentaje de lo que la mayoría de la gente ve en Facebook.
Las noticias de este tipo de páginas tampoco representan las noticias más vistas en Facebook. Reducimos la cantidad de contenido que podría generar polarización en nuestros plataforma, incluidos enlaces a titulares de clickbait o información errónea.
Realizamos nuestra propia investigación y financiamos directamente la de académicos: para comprender mejor cómo nuestros productos pueden contribuir a la polarización para que podamos seguir gestionando esto de forma responsable.
ELECCIONES
Facebook ha hecho inversiones para proteger la integridad de elecciones.
Reconocimos que cometimos errores en 2016. Sin embargo, la película deja lo que hemos hecho desde 2016 para construir defensas sólidas para detener a la gente de usar Facebook para interferir en las elecciones. Hemos mejorado nuestro seguridad y ahora tenemos algunos de los equipos y sistemas más sofisticados en el mundo para prevenir ataques. Hemos eliminado más de 100 redes en todo el mundo participando en un comportamiento inauténtico coordinado hace un par de años, incluso antes de otras elecciones mundiales importantes desde 2016.
Hacer que los anuncios, en particular los políticos y sociales, sean más transparentes, en 2018 creamos una biblioteca de anuncios que hace que todos los anuncios se publiquen en Facebook visibles para las personas, incluso si no vio el anuncio en su propio feed. Etiquetamos y archivamos cualquier problema social y anuncios electorales en esa biblioteca para siete años. También tenemos políticas que prohíben la supresión de votantes en Estados Unidos. Solo entre marzo y mayo de este año, retiramos más de 100,000 piezas de contenido de Facebook e Instagram por violar nuestra políticas de interferencia de los votantes.
Además, hemos iniciado otros esfuerzos para asegurar la integridad de las Elecciones en EE. UU. Alentando el voto, conectando a las personas con elecciones confiables, información y actualizamos nuestras políticas para contrarrestar los intentos de un candidato o campaña para declarar la victoria prematuramente o deslegitimar la elección cuestionando los resultados oficiales.
DESINFORMACIÓN
Luchamos contra las noticias falsas de desinformación, y uso de contenido dañino para una red global de socios de verificación de hechos
La idea de que permitimos que la información errónea se infecte en nuestra plataforma, o que de alguna manera nos beneficiamos de este contenido, está mal. Facebook es la único plataforma importante de redes sociales con una red global de más de 70 socios de verificación de hechos, que revisan el contenido en diferentes idiomas en todo el mundo. El contenido identificado como falso por nuestros socios de verificación de datos está etiquetando y clasificado bajas en News Feed. Información errónea que tiene el potencial de contribuir a la violencia inminente, el daño físico y la supresión de votantes es eliminado por completo, incluida la información errónea sobre COVID-19.
No queremos discursos de incitación al odio en nuestra plataforma y trabajamos para eliminarlos, a pesar de lo que dice la película. Aunque incluso una publicación es demasiado, hemos creado importantes mejoras en esto. Eliminamos más de 22 millones de piezas de odio discurso en el segundo trimestre de 2020, más del 94% de los cuales encontramos antes que alguien lo informe: un aumento con respecto al trimestre anterior cuando eliminó 9,6 millones de publicaciones, más del 88% de las cuales encontramos antes de que se nos informara.
Sabemos que nuestros sistemas no son perfectos y hay cosas que extrañamos. Pero no estamos de brazos cruzados y tampoco permitimos la desinformación o el odio en el discurso para difundir en Facebook.
Fuente: Facebook
Las publicaciones en este sitio no representan necesariamente la posición, estrategias u opiniones de FACEBOOK ©.
Este sitio web no pertenece a FACEBOOK ©.