La red social puede sobre todo descifrar mejor el sentido de "memes", imágenes o animaciones en general con fin humorístico, que a veces contienen un mensaje de odio o discriminatorio comprensible solo cuando se asocia el texto con la imagen.
La red social Facebook afirmó que redujo en los últimos meses contenidos violentos, odiosos o sexuales en su plataforma por el uso de un programa basado en la inteligencia artificial capaz de establecer conexiones entre mensajes, imágenes y comentarios.
“Con el nuevo algoritmo, que comenzó a ser utilizado durante 2020, Facebook puede ahora tener “una visión de conjunto”, explicó hoy Mike Schroepfer, responsable técnico de la plataforma, en una conferencia telefónica.
Hasta ahora, el sistema de detección de la red social solo permitía analizar un contenido a la vez, y no se podían por ejemplo cruzar las señales provenientes de una foto y de un mensaje, según informó AFP.
La red social puede sobre todo descifrar mejor el sentido de “memes”, imágenes o animaciones en general con fin humorístico, que a veces contienen un mensaje de odio o discriminatorio comprensible solo cuando se asocia el texto con la imagen.
“Hay que comprender todo el contexto” para analizar y eventualmente descartar un mensaje, dijo Schroepfer, y explicó que el programa puede cruzar contenidos en varios idiomas.
La herramienta informática evita también retiro de algunos mensajes que habrían desencandenado una alerta anteriormente a raíz de una palabra o una imagen interpretada de manera demasiado literal.
Facebook atribuye en parte a este sistema la caída en la difusión de contenidos dudosos en su sitio. Los indicadores trimestrales miden el número de veces que estos contenidos son vistos, y no su cantidad.
En el primer trimestre, entre 0,05% y 0,06% de los contenidos vistos por usuarios de Facebook fueron considerados odiosos contra un margen de 0,07% a 0,08% en el cuarto trimestre de 2020 y de 0,10% a 0,11% en el tercer trimestre del mismo año.
La red social aseguró que también intervino en 34,3 millones de contenidos a los que evalúan como violentos o chocantes, contra 15,9 millones en el cuarto trimestre de 2020.
Facebook desde mayo de 2018, publica indicadores trimestrales que ilustran su política de control de contenidos que según sus criterios son parásitos, odiosos, violentos, de carácter sexual, “propaganda terrorista” y proveniente de cuentas falsas.
Fuente: Télam