Facebook cierra más cuentas que nunca en pleno esfuerzo de reconversión
San Francisco .- Facebook anunció este jueves que en el pasado trimestre cerró más cuentas falsas que nunca (2.190 millones), una cifra récord que tiene lugar en un momento en el que la compañía se ha visto envuelta en múltiples escándalos que la han llevado a apostar por reconvertirse.
Los 2.190 millones de cuentas que la empresa eliminó entre enero y marzo son una cifra muy cercana a los 2.380 millones de usuarios activos mensuales legítimos que tiene Facebook, algo que sólo se explica porque un porcentaje mayoritario de las cuentas falsas son creadas y gestionadas directamente por robots.
“La cantidad de cuentas que eliminamos se incrementó a causa de los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo”, indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen.
Luchar contra la desinformación y la falta de transparencia en la red social, así como aumentar el respeto a la privacidad de los usuarios y reducir la “toxicidad” de los contenidos son los pilares fundamentales sobre los que se asienta la “reconversión” de la plataforma prometida a principios de año por su cofundador y consejero delegado, Mark Zuckerberg.
Las cuentas falsas (cuya identidad real no se corresponde con quien dicen ser en Facebook) gestionadas por robots se han convertido en los últimos tiempos en una de las principales herramientas usadas para generar confusión y propagar desinformación online.
Se trata en muchas ocasiones de acciones coordinadas dedicadas a influir en un evento específico (como unas elecciones) o sobre una cuestión polémica con origen en países distintos a aquel al que van dirigidas, como por ejemplo los esfuerzos desde Rusia e Irán para influir en la opinión pública de EE.UU. y Europa.
Además de ofrecer detalles sobre el número de cuentas cerradas, la empresa también se refirió a las medidas tomadas para controlar el llamado “discurso del odio” dirigido a grupos sociales específicos, y dijo haber incrementado la cantidad de contenidos retirados de los 3,3 millones con que cerró el último trimestre de 2018 a los 4 millones en los primeros tres meses de 2019.
La firma de Menlo Park (California, EE.UU.) explicó que de estos 4 millones de “mensajes de odio” publicados, un 65,4 % fueron retirados tras ser detectados por los sistemas de inteligencia artificial de la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios.
El porcentaje de detección anticipada (sin mediar denuncia) se incrementa hasta el 96,8 % en el caso de los contenidos sexuales y los desnudos de adultos (también prohibidos por Facebook) y hasta el 98,9 % en el caso de la violencia y los contenidos gráficos, pero sin embargo baja hasta el 14,1 % en situaciones de acoso online.
Este es un dato preocupante para los ejecutivos de la compañía, que han indicado en múltiples ocasiones que evitar casos de acoso se encuentra entre sus prioridades.
Además de informar sobre cuentas y contenido retirado, la red social también publicó por primera vez datos relativos a las apelaciones que realizan los internautas cuya actividad ha sido censurada erróneamente por Facebook, así como cifras sobre ventas ilegales de armas y drogas en la plataforma.
Sobre las primeras, los números de la empresa indican que aproximadamente un cuarto de las quejas que se presentan después de que Facebook haya censurado contenidos sexuales o sobre desnudos son avaladas y el contenido es restaurado, mientras que en el caso de los mensajes de odio, esta proporción baja hasta una décima parte.
En cuanto a las segundas, Facebook aseguró que elimina un 83 % de los mensajes que publicitan drogas antes de que los usuarios los denuncien, y un 69 % en el caso de las armas de fuego.
Los 2.190 millones de cuentas que la empresa eliminó entre enero y marzo son una cifra muy cercana a los 2.380 millones de usuarios activos mensuales legítimos que tiene Facebook, algo que sólo se explica porque un porcentaje mayoritario de las cuentas falsas son creadas y gestionadas directamente por robots.
“La cantidad de cuentas que eliminamos se incrementó a causa de los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo”, indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen.
Luchar contra la desinformación y la falta de transparencia en la red social, así como aumentar el respeto a la privacidad de los usuarios y reducir la “toxicidad” de los contenidos son los pilares fundamentales sobre los que se asienta la “reconversión” de la plataforma prometida a principios de año por su cofundador y consejero delegado, Mark Zuckerberg.
Las cuentas falsas (cuya identidad real no se corresponde con quien dicen ser en Facebook) gestionadas por robots se han convertido en los últimos tiempos en una de las principales herramientas usadas para generar confusión y propagar desinformación online.
Se trata en muchas ocasiones de acciones coordinadas dedicadas a influir en un evento específico (como unas elecciones) o sobre una cuestión polémica con origen en países distintos a aquel al que van dirigidas, como por ejemplo los esfuerzos desde Rusia e Irán para influir en la opinión pública de EE.UU. y Europa.
Además de ofrecer detalles sobre el número de cuentas cerradas, la empresa también se refirió a las medidas tomadas para controlar el llamado “discurso del odio” dirigido a grupos sociales específicos, y dijo haber incrementado la cantidad de contenidos retirados de los 3,3 millones con que cerró el último trimestre de 2018 a los 4 millones en los primeros tres meses de 2019.
La firma de Menlo Park (California, EE.UU.) explicó que de estos 4 millones de “mensajes de odio” publicados, un 65,4 % fueron retirados tras ser detectados por los sistemas de inteligencia artificial de la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios.
El porcentaje de detección anticipada (sin mediar denuncia) se incrementa hasta el 96,8 % en el caso de los contenidos sexuales y los desnudos de adultos (también prohibidos por Facebook) y hasta el 98,9 % en el caso de la violencia y los contenidos gráficos, pero sin embargo baja hasta el 14,1 % en situaciones de acoso online.
Este es un dato preocupante para los ejecutivos de la compañía, que han indicado en múltiples ocasiones que evitar casos de acoso se encuentra entre sus prioridades.
Además de informar sobre cuentas y contenido retirado, la red social también publicó por primera vez datos relativos a las apelaciones que realizan los internautas cuya actividad ha sido censurada erróneamente por Facebook, así como cifras sobre ventas ilegales de armas y drogas en la plataforma.
Sobre las primeras, los números de la empresa indican que aproximadamente un cuarto de las quejas que se presentan después de que Facebook haya censurado contenidos sexuales o sobre desnudos son avaladas y el contenido es restaurado, mientras que en el caso de los mensajes de odio, esta proporción baja hasta una décima parte.
En cuanto a las segundas, Facebook aseguró que elimina un 83 % de los mensajes que publicitan drogas antes de que los usuarios los denuncien, y un 69 % en el caso de las armas de fuego.
(Tomada de noticiassin.com)
No hay comentarios: