Por Debanhi Soto
Mark Zuckerberg, dueño de Meta, la empresa responsable de Facebook, Threads e Instagram anunció que reemplazaría su programa de terceros verificadores (Third-party-Fact checking Program) con Notas de la Comunidad similares a las de la plataforma X, en una medida que de acuerdo a expertos no solo no detendrá la desinformación, sino que la propiciará.
“Terminaremos el actual programa de verificación de hechos por terceros en Estados Unidos y, en su lugar, comenzaremos a implementar un programa de Community Notes. Hemos visto que este enfoque funciona en X, donde se capacita a la comunidad para decidir cuándo las publicaciones son potencialmente engañosas y necesitan más contexto (…) Creemos que este podría ser un mejor método para lograr nuestro objetivo original de brindar a las personas información sobre lo que están viendo, y uno menos propenso a sesgos.” dice el comunicado.
Sin embargo, las notas de la comunidad al no ser escritas o moderadas por X o agencias dedicadas al fact checking, sino por los mismos usuarios que las redactan y después votan por la utilidad de las mismas, son espacios donde con mayor facilidad se pueden presentar errores o sesgos de confirmación que generan desinformación.
La Red Europea de Estándares de Fact Checking (EFCSN) explicó en un comunicado publicado después del anuncio de Zuckerberg que las Notas de la Comunidad de X no cumplieron su propósito de detener la desinformación electoral y que la mayor parte del contenido falso o engañoso, no había sido moderado por las Notas de la Comunidad.
“En el contexto de las elecciones estadounidenses de 2024, Poynter encontró que las Community Notes de X (antes Twitter) tuvieron, en el mejor de los casos, un efecto extremadamente marginal para combatir la desinformación electoral. Otro análisis de Science Feedback, miembro de la EFCSN, descubrió que la mayoría del contenido identificado como falso o engañoso por verificadores en X no presentaba señales visibles de haber sido moderado” dice el comunicado de la EFCSN.
Meta decide cerrar el programa de verificación de terceros pese a resultados exitosos
En 2016, Meta anunció el lanzamiento de un programa en el cual organizaciones de fact checking revisarían contenidos desinformantes que se distribuyeran en Facebook, Instagram o WhatsApp.
La empresa hizo una encuesta que concluyó que el 74% de las personas que habían visto una advertencia de contenido desinformante consideraban que estas eran correctas o estaban abiertas a ver más etiquetas de información falsa. También el 63% de la muestra considera que las advertencias se aplicaron de manera justa
El programa tenía como aliados a 80 organizaciones que publicaban en más de 60 idiomas en todo el mundo y en términos generales para Meta, se trataba de un éxito. Incluso, la empresa ya había renovado los contratos con algunas organizaciones para mantener el proyecto durante 2025 antes de hacer pública su decisión de cerrar el programa de verificación por terceros.
Parece relevante agregar que la decisión de Meta de cerrar el programa de verificación por terceros llega después de eliminar CrowdTangle en agosto de 2024, una herramienta de estadísticas pública que ayudaba a los fact checkers a detectar tendencias de desinformación en tiempo real.
Falso que el programa de verificación de terceros es lo mismo que censura
Para justificar el cierre del programa de verificación de terceros, el CEO de Meta replicó un discurso estigmatizante en el que argumenta que el fact checking se convirtió en una “herramienta de censura” y que mediante las verificaciones, las agencias de fact checking supuestamente manipulaban a las audiencias imponiendo sus sesgos.
Es importante decir, que las agencias de fact checking que participaban en el programa no eliminaban o “censuraban” contenidos, sino que la moderación de lo que ocurría después de calificar un contenido como desinformante, era responsabilidad de Meta como lo explica la propia empresa en la página oficial de su programa de verificación de datos.
Aaron Sharockman, director ejecutivo de PolitiFact, una de las organizaciones de fact checking que participaban en el programa de verificación por terceros indicó en un posicionamiento de redes sociales que la decisión de eliminar o penalizar los posts y cuentas nunca fue de los periodistas, sino de Meta.
“Permítame ser claro: la decisión de eliminar o penalizar una publicación o cuenta es hecha por Meta y Facebook, no por los fact-checkers. Ellos crearon las reglas. El rol de PolitiFact y otros periodistas estadounidenses siempre ha sido proveer un discurso adicional y contexto a las publicaciones que los periodistas encuentren desinformantes. El rol de Facebook y Meta siempre ha sido decidir qué hacer con esa información” declaró Sharockman en sus redes.
Asimismo, todas las instituciones que participaban en el programa de terceros verificadores de Meta eran pertenecientes a la Red Internacional de Fact Checking (IFCN por sus siglas en inglés) del Instituto Poynter, una asociación fundada en 2015 que agrupa a más de 170 organizaciones de fact checking.
Para poder ser miembro de la IFCN es necesario que las agencias de fact checking sean transparentes con sus proceso de verificación, de organización jurídica, política de corrección y financiación, de manera que se eviten los sesgos políticos, partidistas o económicos que puedan comprometer el rigor periodístico de las verificaciones.
“Los fact-checkers que trabajan para Meta siguen un Código de Principios que requieren apartidismo y transparencia. Es desafortunado que esta decisión venga después de una extrema presión política de una nueva administración y sus simpatizantes. Los fact-checkers no están sesgados en sus trabajos, los ataques vienen de aquellos que sienten que deberían ser capaces de exagerar y mentir sin ser refutados o contradecidos” dice un posicionamiento en redes sociales de Angie Drobnic Holan, directora del IFCN.
También anteriormente, Meta había publicado que gracias a la alianza con la IFCN, la empresa se aseguraba que las organizaciones de fact checking que participaban en el programa siguieran un código de ética y estuvieran libres de sesgos.
Limitar y señalar el discurso de odio NO es un atentado contra la libertad de expresión
En el comunicado de Meta, la empresa señala que en plataformas donde miles de millones de personas pueden tener una voz, “lo bueno, lo malo y lo feo está en exhibición” y que eso es libertad de expresión.
Respecto a los límites entre la libertad de expresión y el discurso de odio, la Organización de las Naciones Unidas (ONU) señala que cuando un tipo de comunicación ataca o utiliza lenguaje discriminatorio en referencia a una persona o grupo social en función de su identidad, se trata de un discurso de odio y que debe ser combatido al amparo del derecho internacional de los derechos humanos.
Sobre las limitaciones al discurso de odio, Antonio Guterres, Secretario General de las Naciones Unidas explica que no se trata de prohibir la libertad de expresión, sino que se trata de impedir que el odio escale hacia la violencia.
“Combatir el discurso de odio no significa limitar o prohibir la libertad de expresión. Se trata de impedir la escalada de dicha incitación al odio hacia algo más peligroso, en particular instigando a la discriminación, la hostilidad y la violencia lo cual está prohibido según el derecho internacional” explicó Antonio Guterres.
Links | Fuentes
- Más discurso y menos errores | Meta
- Fake news no tienen fin; programa de verificación de Meta, sí | Lupa Media
- La EFCSN, decepcionada por el fin del Programa de Verificación de Hechos de Terceros de Meta en EE.UU.; condena las declaraciones que vinculan la verificación de hechos con la censura. | EFCSN
- Programa de verificación de datos externa de Meta | Meta
- Código de Principios | IFCN
- Redes sociales de la IFCN
- Discurso de odio frente a libertad de expresión | ONU