La moderación del contenido en línea es un campo minado moral, especialmente cuando la libertad de expresión choca con la prevención del daño causado por la desinformación. ¿Estarías dispuesto a limitar la libertad de expresión para evitar las noticias falsas y el contenido dañino? Parece que la mayoría sí. Al menos, así lo asegura un estudio realizado por un equipo de investigadores del Instituto Max Planck para el Desarrollo Humano, la Universidad de Exeter, la Vrije Universiteit Amsterdam y la Universidad de Bristol. La investigación examinó cómo el público abordaría tales dilemas morales. Descubrieron que la mayoría de los encuestados tomaría medidas para controlar la difusión de información errónea, en particular si fuera dañina y se compartiera repetidamente. 

Los resultados del estudio se pueden utilizar para informar reglas consistentes y transparentes para la moderación de contenido que el público en general acepte como legítimas.

 

Moderar las redes sociales

La cuestión de la moderación de contenidos en las plataformas de redes sociales se puso de relieve en 2021, cuando grandes plataformas como Facebook y Twitter suspendieron las cuentas del entonces presidente de Estados Unidos, Donald Trump. Los debates continuaron mientras las plataformas enfrentaban información errónea peligrosa sobre el COVID-19 y las vacunas, y después de que Elon Musk anuló por sí solo la política de desinformación sobre el COVID-19 de Twitter y restableció cuentas previamente suspendidas.

“Hasta ahora, las plataformas de redes sociales han sido las que han tomado decisiones clave para moderar la desinformación, lo que efectivamente las coloca en la posición de árbitros de la libertad de expresión. Además, los debates sobre la moderación de contenidos en línea suelen ser acalorados, pero en gran medida no cuentan con evidencia empírica”, afirma la autora principal del estudio, Anastasia Kozyreva, investigadora científica del Instituto Max Planck para el Desarrollo Humano.

 "Para abordar adecuadamente los conflictos entre la libertad de expresión y la desinformación dañina, necesitamos saber cómo las personas manejan diversas formas de dilemas morales al tomar decisiones sobre la moderación de contenidos", añade Ralph Hertwig, director del Centro para la Racionalidad Adaptativa del Instituto Max Planck para Desarrollo humano.

 

¿Tomarías medidas contra quienes difundan información errónea en RRSS?

En el experimento de encuesta conjunto en Estados Unidos, más de 2.500 encuestados indicaron si eliminarían publicaciones en las redes sociales que difundieran información errónea sobre las elecciones democráticas, las vacunas, el Holocausto y el cambio climático. También se les preguntó si tomarían medidas punitivas contra las cuentas mediante la emisión de una advertencia o una suspensión temporal o indefinida. A los encuestados se les mostró información sobre cuentas hipotéticas, incluida la inclinación política y el número de seguidores, así como las publicaciones de las cuentas y las consecuencias de la información errónea que contenían.

La mayoría de los encuestados optó por tomar alguna medida para evitar la difusión de información errónea dañina. En promedio, el 66 por ciento de los encuestados dijo que eliminaría las publicaciones ofensivas y el 78 por ciento tomaría alguna medida contra la cuenta (de los cuales el 33 por ciento optó por “emitir una advertencia” y el 45 por ciento optó por suspender indefinidamente o temporalmente las cuentas que difunden información errónea). No toda la información errónea fue penalizada por igual: la negación del cambio climático fue la que menos actuó (58%), mientras que la negación del Holocausto (71%) y la negación de las elecciones (69%) fueron las que más se actuaron, seguidas de cerca por el contenido antivacunas (66%). ).

La gente en general reconoce que debe haber límites a la libertad de expresión

“Nuestros resultados muestran que los llamados absolutistas de la libertad de expresión, como Elon Musk, no están en contacto con la opinión pública. La gente en general reconoce que debe haber límites a la libertad de expresión, es decir, cuando puede causar daño, y que la eliminación de contenido o incluso la eliminación de la plataforma puede ser apropiado en circunstancias extremas, como la negación del Holocausto”, dice el coautor Stephan Lewandowsky, presidente en Psicología Cognitiva de la Universidad de Bristol.

El estudio también arroja luz sobre los factores que afectan las decisiones de las personas con respecto a la moderación de contenidos en línea. 

 

No todas las noticias falsas o dañinas  preocupan igual 

El tema, la gravedad de las consecuencias de la desinformación y si se trataba de una reincidencia tuvieron el mayor impacto en las decisiones de eliminar publicaciones y suspender cuentas. Las características de la cuenta en sí (la persona detrás de la cuenta, su partidismo y el número de seguidores) tuvieron poco o ningún efecto en las decisiones de los encuestados. 

Los encuestados no estaban más inclinados a eliminar publicaciones de una cuenta con una postura política opuesta, ni eran más propensos a suspender cuentas que no coincidieran con sus preferencias políticas. Sin embargo, republicanos y demócratas tendieron a adoptar enfoques diferentes para resolver el dilema entre proteger la libertad de expresión y eliminar la información errónea potencialmente dañina. Los demócratas prefirieron evitar información errónea peligrosa en los cuatro escenarios, mientras que los republicanos prefirieron proteger la libertad de expresión, imponiendo menos restricciones.

 “Esperamos que nuestra investigación pueda contribuir al diseño de reglas transparentes para la moderación del contenido de información errónea dañina. Las preferencias de las personas no son el único punto de referencia para hacer concesiones importantes en materia de moderación de contenidos, pero ignorar el hecho de que existe apoyo para tomar medidas contra la información errónea y las cuentas que la publican corre el riesgo de socavar la confianza del público en las políticas y regulaciones de moderación de contenidos”, dice coautor Jason Reifler, profesor de la Universidad de Exeter. “Una regulación efectiva y significativa de las plataformas requiere no sólo reglas claras y transparentes para la moderación de contenidos, sino también la aceptación general de las reglas como limitaciones legítimas al derecho fundamental a la libre expresión. Esta importante investigación contribuye en gran medida a informar a los responsables políticos sobre lo que es y, lo que es más importante.

 

El estudio completo se puede consultar en línea:

Resolving content moderation dilemmas between free speech and harmful misinformation. (Resolver los dilemas de moderación de contenidos entre la libertad de expresión y la desinformación dañina.) Kozyreva, A., Herzog, S. M., Lewandowsky, S., Hertwig, R., Lorenz-Spreen, P., Leiser, M., & Reifler, J. (2023).

Proceedings of the National Academy of Sciences of the United States of America, 120(7), Article e2210666120. https://doi.org/10.1073/pnas.2210666120

Abstract: En la moderación de contenidos en línea, dos valores clave pueden entrar en conflicto: proteger la libertad de expresión y prevenir daños. Se necesitan normas sólidas basadas en parte en cómo piensan los ciudadanos sobre estos dilemas morales para abordar este conflicto con principios, pero se sabe poco sobre los juicios y preferencias de las personas en torno a la moderación de contenidos. Examinamos estos dilemas morales en un experimento de encuesta conjunto en el que encuestados estadounidenses ( N= 2, 564) indicaron si eliminarían publicaciones problemáticas en las redes sociales sobre la negación de las elecciones, la antivacunación, la negación del Holocausto y la negación del cambio climático y si tomarían medidas punitivas contra las cuentas. A los encuestados se les mostró información clave sobre el usuario y su publicación, así como las consecuencias de la información errónea. La mayoría prefirió anular la información errónea dañina antes que proteger la libertad de expresión. Los encuestados se mostraron más reacios a suspender cuentas que a eliminar publicaciones y era más probable que lo hicieran si las consecuencias dañinas de la información errónea eran graves o si compartirla era un delito repetido. Las características relacionadas con la cuenta en sí (la persona detrás de la cuenta, su partidismo y la cantidad de seguidores) tuvieron poco o ningún efecto en las decisiones de los encuestados. La moderación del contenido de información errónea dañina fue una cuestión partidista: en los cuatro escenarios, los republicanos estuvieron consistentemente menos dispuestos que los demócratas o los independientes a eliminar publicaciones o penalizar a las cuentas que las publicaron. Nuestros resultados pueden informar el diseño de reglas transparentes para la moderación de contenido de información errónea dañina.

Fuente: Max-Planck Imagen de Steve Buissinne en Pixabay