Salta al contenido principal
Foro

Foro de debate 1

Algunos puntos para el debate

Algunos puntos para el debate

de Antonio García Jiménez - Número de respuestas: 3

Gran sesión la de ayer. Muy interesante!!!! Por ahora, sin ánimo de sistematización, y tomando como referencia lo dicho en la sesión: 

a) Junto a la polarización, el papel de la degradación democrática en occidente (la pérdida de legitimidad de la opinión del otro y de que el otro ocupe el poder)

b) El papel de la omisión de información en el marco de la falta de contexto. Los problemas de su detección de forma humana o automatizada. 

c) La dificultad operativa para verificar información. Los límites de la IA. 

d) La accesibilidad, cada mayor, a la tecnología que permite manipular los documentos, los contenidos. Deepfake: https://news.northeastern.edu/2022/04/01/deepfakes-fake-news-threat-democracy/

e) ¿El comienzo del fin de la impunidad de las fake news?: https://www.newtral.es/condena-difundir-fake-news/20221108/

f) La facilidad, a través de tecnologías de redes, para detectar de forma automatizada a líderes de opinión y perfiles psicológicos más susceptibles de caer en teorías de la conspiración, etc.

g) Perdonad el siguiente comentario: cómo nos afecta el "cuñadismo" en el marco de las echo chambers??? 😎

Mil disculpas por no haber podido estar. Gracias!!!

En respuesta a Antonio García Jiménez

Re: Algunos puntos para el debate

de Cristina Arribas Mato -
Hola a tod@s

Cuestiones muy interesantes las que planteas Antonio.

Por mi parte quería compartiros algunos recursos relacionados con los contenidos que se trabajaron ayer y que quedaron pendientes.

Rubén hizo mención a un artículo de Anatoly Grudz publicado en Big Data & Society -Going viral: How a single tweet spawned a COVID-19 conspiracy theory on Twitter- sobre cómo se gesta y propaga una campaña viral en el contexto de la COVID-19. Os dejamos el link: https://journals.sagepub.com/doi/epub/10.1177/2053951720938405
Aunque sólo cubre la propagación en Twitter, el caso constituye un buen ejemplo de algunas de las cuestiones a las que se hicieron mención:

-Viralización de los contenidos maliciosos y el papel de los "influencers" y de los "bots".
-Barreras para aceptar la información verificada relacionadas con la confrontación ideológica (disonancia cognitiva) y la autoridad de la fuente o del diseminador.
-Objetivos de la desinformación: uso de los contenidos maliciosos como arma ("weaponization") contra adversarios políticos.

Sobre argumentación y falacias el Departamento de Filosofía de la Universidad de Texas tiene publicado un recurso sobre falacias que resulta muy instructivo por los numerosos ejemplos que contiene. También os dejamos el link: https://www.txst.edu/philosophy/resources/fallacy-definitions.html

Esperamos que sean de vuestro interés
En respuesta a Cristina Arribas Mato

Re: Algunos puntos para el debate

de Julieta Nazaret Brquez Cornejo -
Me parece muy interesante y buena la propuesta que ofrece el artículo que mencionas, podría ser que si se marcarán las noticias oficiales y se permitiera a la gente opinar en un mismo servicio se evitarían algunas desinformaciónes. No obstante, pienso que debería seguir existiendo un filtro a la hora de publicar los comentarios.
Por otro lado, tenemos el ejemplo de Twitter como herramienta parecida a lo que propone Anatoly Grudz, eso sí sin filtro ni restricción ninguna. Muchas veces resulta caótico e incoherente, y los líderes de opinión suelen triunfar en este sistema.
Si existiera un filtro de información habría que marcar cuáles son los requisitos para considerar una información veraz y objetiva, para así marcar límites. Puesto que si una persona fuera la que filtra esa información podría quedar sesgada por sus opiniones e intereses, y si fuera una IA quién lo hiciera, se podría encontrar la manera de igualmente conseguir publicar esa información que se quiere.
En respuesta a Julieta Nazaret Brquez Cornejo

Re: Algunos puntos para el debate

de Cristina Arribas Mato -
Efectivamente no resulta una solución sencilla. Quizás la clave esté en la combinación de varias acciones: por un lado el lector/usuario que pueda interactuar con el contenido informando sobre su objetividad, algoritmos de IA que permitan identificar aquellos contenidos que hayan sido definidos como potencialmente maliciosos y en último lugar la intervención de los fact-checkers como es el caso de Facebook a cuyo programa de partners se ha adherido un elevado porcentaje de las organizaciones que forman parte de la International Fact-Checking Network (IFCN).