A Meta le gustaría presentar su próximo verificador de hechos: el que detecta falsedades, escribe correcciones convincentes y advierte a otros sobre contenido engañoso.
Eres tú.
El director ejecutivo de Meta, Mark Zuckerberg, anunció el martes que pondría fin a gran parte de los esfuerzos de moderación de la compañía, como la verificación de datos por parte de terceros y las restricciones de contenido. En cambio, dijo, la empresa llevará a cabo obligaciones de verificación de hechos bajo un
El anuncio marca el fin de una era de moderación de contenido y la introducción de pautas más flexibles que incluso Zuckerberg admitió que aumentarían la cantidad de contenido falso y engañoso. en la red social más grande del mundo.
“Creo que será un fracaso espectacular”, dijo Alex Mahadevan, director de un programa de alfabetización mediática llamado MediaWise en el Instituto Poynter, que ha estudiado notas comunitarias sobre X. “La plataforma ahora no asume ninguna responsabilidad por lo que se diga”. Puedes transferir la responsabilidad a los propios usuarios”.
Semejante cambio habría sido inimaginable después de las elecciones presidenciales de 2016 o incluso de 2020, cuando las empresas de redes sociales se encontraron como guerreros reacios en la primera línea de una guerra de desinformación. Las falsedades generalizadas durante las elecciones presidenciales de 2016 provocaron reacciones públicas y debates internos en las empresas de redes sociales sobre su papel en la difusión de las llamadas “noticias falsas”.
Las empresas respondieron invirtiendo millones en moderación de contenidos, pagando a verificadores de datos externos, desarrollando algoritmos complejos para restringir contenidos tóxicos y emitiendo una avalancha de avisos de advertencia para frenar la propagación de falsedades, medidas que se consideraron necesarias para restaurar la confianza del público.
El esfuerzo funcionó hasta cierto punto: las etiquetas de verificación de hechos fueron efectivas para reducir la creencia en falsedades, encontraron los investigadores, aunque fueron menos efectivas entre los estadounidenses conservadores. Pero los esfuerzos también convirtieron a las plataformas, y a Zuckerberg en particular, en objetivos políticos de Trump y sus aliados, quienes dijeron que la moderación de contenido era nada menos que censura.
Ahora el entorno político ha cambiado. Con Trump a punto de tomar el control de la Casa Blanca y los reguladores que supervisan meta, Zuckerberg se ha centrado en mejorar su relación con Trump cenando en Mar-a-Lago y un aliado de Trump se unió a la junta directiva de Meta y donó 1 dólar. millones al fondo de inauguración de Trump.
“Las recientes elecciones también parecen ser un punto de inflexión cultural para priorizar nuevamente el discurso”, dijo Zuckerberg en un video anunciando los cambios de moderación.
La apuesta de Zuckerberg de utilizar Community Notes como reemplazo de los verificadores de datos profesionales se inspiró en un experimento similar en X, que permitió a Elon Musk, su multimillonario propietario, subcontratar la verificación de datos de la empresa a los usuarios.
X ahora solicita a los usuarios cotidianos que identifiquen falsedades y escriban correcciones o agreguen información adicional a las publicaciones en las redes sociales. Se desconocen los detalles exactos del programa de Meta, pero en X las notas inicialmente sólo serán visibles para los usuarios que se registren en el programa Community Notes. Una vez que reciben suficientes votos que consideran valiosos, se adjuntan a la publicación en las redes sociales para que todos los vean.
“El sueño de una plataforma de redes sociales es tener una moderación completamente automatizada por la cual, en primer lugar, no tienen que asumir ninguna responsabilidad y, en segundo lugar, no tienen que pagarle a nadie por ello”, dijo el Sr. Mahadevan, el director. de MediaWise. “Así que Community Notes es el sueño absoluto de estos chicos: básicamente han intentado crear un sistema que automatice la verificación de datos”.
Musk, otro aliado de Trump, fue uno de los primeros defensores de las Notas Comunitarias. Rápidamente amplió el programa después de despedir a la mayor parte del equipo de confianza y seguridad de la empresa.
Los estudios han demostrado que las Notas comunitarias pueden disipar algunas falsedades virales. Los investigadores han descubierto que el enfoque funciona mejor en temas en los que existe un amplio consenso, como la información errónea sobre las vacunas Covid.
En este caso, las notas demostraron ser “una solución innovadora que brindaba información de salud precisa y creíble”, dijo John W. Ayers, director asociado de innovación en la División de Enfermedades Infecciosas y Salud Pública Global de la Universidad de California. San Diego, Facultad de Medicina, quien escribió A informe en abril sobre el tema.
Pero los usuarios con diferentes opiniones políticas deben aceptar una verificación de datos antes de adjuntarlos públicamente a una publicación, lo que significa que las publicaciones engañosas sobre temas políticamente divisivos a menudo no se controlan. MediaWise descubrió que menos del 10 por ciento de las notas comunitarias escritas por los usuarios terminan publicándose en publicaciones ofensivas. Cuando se trata de temas delicados como la inmigración y el aborto, las cifras son aún más bajas.
Los investigadores han descubierto que la mayoría de las publicaciones sobre
Desde su debut en 2021, el programa ha despertado el interés de otras plataformas. YouTube anunció el año pasado que lanzaría un proyecto piloto que permitiría a los usuarios enviar notas que aparecen debajo de videos engañosos. La utilidad de estas verificaciones de hechos aún está siendo evaluada por revisores independientes, dijo YouTube en una publicación de blog.
Las herramientas de moderación de contenido existentes de Meta parecieron verse abrumadas por la avalancha de falsedades y contenido engañoso, pero los investigadores consideraron que las intervenciones eran bastante efectivas. un estudio publicado el año pasado en la revista Nature Human Behavior mostró que las etiquetas de advertencia como las utilizadas por Facebook para advertir a los usuarios sobre información falsa redujeron la creencia en falsedades en un 28 por ciento y la frecuencia con la que se compartía contenido en un 25 por ciento. Los investigadores descubrieron que los usuarios de derecha sospechaban mucho más de la verificación de datos, pero las intervenciones aún eran efectivas para reducir su creencia en contenido falso.
“Todas las investigaciones muestran que cuantos más obstáculos haya, más fricción habrá en una plataforma, menos información de baja calidad se difundirá”, dijo Claire Wardle, profesora asociada de comunicaciones en la Universidad de Cornell.
Los investigadores creen que la verificación de datos comunitaria es eficaz cuando se combina con esfuerzos internos de moderación de contenido. Pero el enfoque cauteloso de Meta podría resultar arriesgado.
“El enfoque comunitario es una pieza del rompecabezas”, dijo Valerie Wirtschafter, miembro de la Brookings Institution que ha estudiado notas comunitarias. “Pero no puede ser el único, y ciertamente no puede presentarse simplemente como una solución completa y no personalizada”.