Qué es la desinformación, por qué se difunde y cómo detenerla

¿Qué es la desinformación? La desinformación es una información falsa o engañosa, creada para influir en la gente. Puede adoptar muchas formas diferentes y existía mucho antes de Internet. Todos los países luchan contra la difusión de desinformación en la red, tanto si se vive en una democracia como en un régimen autoritario. A menudo rodea a temas políticos divisivos, como la migración, la vacunación o las políticas de género, sexualidad, raza, religión, etc. 

A medida que las comunicaciones se trasladan a Internet, también lo hace la desinformación. Los modelos de negocio publicitario de las grandes plataformas online, que explotan nuestros datos personales para obtener beneficios, han contribuido a la rápida difusión de la desinformación. Durante la pandemia mundial, hemos sido testigos de cómo la desinformación, a menudo fabricada y difundida por políticos y otras figuras públicas, puede incitar a la violencia y a la discriminación contra grupos marginados. La desinformación se ha relacionado con las bajas tasas de vacunación, el silenciamiento de las voces marginadas y el debilitamiento de la confianza del público en el periodismo. Como escribe la Relatora Especial de la ONU, Irene Khan, «esencialmente, la desinformación es una forma moderna, en la era digital, de ganar dinero difundiendo mentiras a propósito».

LEER EL INFORME

¿Por qué se difunde la desinformación en Internet?

Aunque la desinformación es un problema social complejo que no empezó con plataformas online como Meta (Facebook) o TikTok, son los modelos de negocio de estas plataformas los que han llevado al desarrollo y despliegue de una arquitectura técnica y unos algoritmos que operan con la escala y el poder de moldear el discurso público en masa. Ese discurso se moldea para maximizar los beneficios.

Así es como funciona. Para generar beneficios, las plataformas en línea deben impulsar y aumentar constantemente la participación en sus sitios. Para ello, utilizan una toma de decisiones opaca y automatizada para seleccionar el contenido que se ve en Internet. El resultado final es la personalización de las noticias o los resultados de las búsquedas y los anuncios dirigidos. Esta personalización se basa en el seguimiento intrusivo de sus comportamientos en línea. En otras palabras, las plataformas recogen sus datos personales y rastrean lo que usted hace en Internet para ofrecerle contenidos «atractivos», incluidos los sensacionalistas y la desinformación. Las plataformas amplifican estos contenidos, a menudo divisivos y perjudiciales, y permiten su selección y utilización como arma contra los usuarios. 

Esta explotación y manipulación de nuestros datos con fines lucrativos está amenazando tanto los derechos humanos como las democracias en todo el mundo, tal y como destacó la denunciante de Meta Frances Haugen en su testimonio ante los legisladores de Estados Unidos y la UE. Describió con detalle cómo la clasificación de contenidos a través de sistemas de recomendación de contenidos conduce a la difusión de desinformación y discursos de odio en la plataforma de Facebook de Meta.

¿Cómo abordar la desinformación? Proteger primero los derechos humanos

Access Now se ha dedicado a analizar las respuestas normativas a la propagación de la desinformación en línea, señalando cómo incluso las propuestas bien intencionadas para combatir categorías concretas de contenidos en línea pueden conducir a abusos de los derechos humanos. 

En diciembre de 2021, publicamos un informe conjunto con Liberty y EDRi, Informing the Disinfo Debate: Una guía de políticas para la protección de los derechos humanos. Este informe es una continuación de su predecesor de 2018, Informing the «Disinformation» Debate. El informe de 2018 fue uno de los primeros de las organizaciones de la sociedad civil en identificar los modelos de negocio problemáticos de las plataformas como un factor fundamental detrás de la manipulación en línea de las decisiones económicas y políticas de las personas. En la actualidad, existe un consenso cada vez mayor de que los enfoques reguladores deben abordar el modelo de negocio como una cuestión fundamental, tal y como sostienen un gran número de análisis políticos. 

*** Translated with http://www.DeepL.com/Translator (free version) ***

Es hora de pensar más allá de la desinformación y las noticias falsas

https://www.cigionline.org/articles/its-time-to-think-beyond-the-problems-of-disinformation-and-false-news/

Facebook está teniendo un mes muy malo. Esta semana, varios de sus productos de medios digitales -incluidos Facebook, Instagram y WhatsApp- han caído durante un periodo prolongado. Sus acciones se han desplomado. Mientras tanto, The Wall Street Journal ha publicado varias historias en las últimas dos semanas sobre los problemas y las fechorías de la empresa. La muy discutida serie «The Facebook Files» (Los archivos de Facebook) revela una serie de problemas con los productos de la empresa: exenciones de las normas para usuarios de alto perfil involucrados en el acoso; supresión de conocimientos internos sobre la nocividad de Instagram para las adolescentes; una base de usuarios cada vez más enojada y maliciosa a pesar de la supuesta intención de la empresa de fomentar un compromiso constructivo; olas incontroladas de desinformación sobre la vacuna COVID-19; y mucho más.

Los continuos problemas con la información falsa de los antivacunas son motivo de gran preocupación, especialmente en las plataformas de las redes sociales, donde miles de millones de usuarios de todo el mundo obtienen sus noticias. Facebook y otras empresas de redes sociales deben trabajar para frenar estos contenidos. Pero el reportaje de The Wall Street Journal pone de relieve el hecho de que hay numerosos problemas en Facebook y en sus diversas aplicaciones y sitios web, además de los contenidos falsos. De hecho, la mayor parte de las historias muestran un conjunto de problemas entrelazados y de gran alcance, tanto en la gestión de la plataforma como en el diseño.

Lo mismo ocurre con el conjunto de problemas centrados en la información en las plataformas de medios sociales de todo el mundo. Facebook, YouTube, WeChat, TikTok y muchas otras no se limitan a facilitar -o no frenar- la difusión de desinformación perjudicial. La mayoría de las plataformas de medios sociales son crisoles para una gama más amplia de comunicación nefasta y coercitiva, incluida la propaganda coordinada, el discurso de odio, el trolling patrocinado por el Estado, las sofisticadas campañas de phishing y los anuncios depredadores. Los grupos de delincuencia organizada y las organizaciones terroristas conocidas las utilizan para comunicarse y organizarse.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Los robots que no son

Desde 2016 se ha culpado a las cuentas automatizadas de Twitter de Donald Trump y del Brexit (muchas veces), de la política brasileña, de la política venezolana, del escepticismo de la climatología, de la desinformación sobre el cannabis, del sentimiento antiinmigración, del vaping e, inevitablemente, de la desconfianza hacia las vacunas COVID. Los artículos de noticias sobre bots están respaldados por una cantidad sorprendentemente grande de investigación académica. Sólo Google Scholar indexa casi 10.000 artículos sobre el tema. Algunos de estos trabajos han recibido una amplia cobertura

Cómo Facebook se volvió adicto a difundir información errónea

https://www.technologyreview.com/2021/03/11/1020600/facebook-responsible-ai-misinformation/

Joaquín Quiñonero Candela, director de IA en Facebook, se disculpaba con su audiencia.

Era el 23 de marzo de 2018, pocos días después de la revelación de que Cambridge Analytica, una consultora que trabajó en la campaña de las elecciones presidenciales de 2016 de Donald Trump, había desviado subrepticiamente los datos personales de decenas de millones de estadounidenses de sus cuentas de Facebook en un intento de influir en cómo ellos votaron. Fue la mayor violación de privacidad en la historia de Facebook, y previamente se había programado que Quiñonero hablara en una conferencia sobre, entre otras cosas, «la intersección de la inteligencia artificial, la ética y la privacidad» en la empresa. Consideró cancelar, pero después de debatirlo con su director de comunicaciones, mantuvo su tiempo asignado.

Desinformación industrializada: Inventario global 2020 de manipulación organizada de redes sociales

La manipulación de la opinión pública en las redes sociales sigue siendo una amenaza crítica para la democracia. Durante los últimos cuatro años, hemos monitoreado la organización global de la manipulación de las redes sociales por parte de gobiernos y partidos políticos, y las diversas empresas privadas y otras organizaciones con las que trabajan para difundir desinformación.

Nuestro informe de 2020 destaca las tendencias recientes de la propaganda computacional en 81 países y las herramientas, capacidades, estrategias y recursos en evolución que se utilizan para manipular la opinión pública en todo el mundo. Identificamos tres tendencias clave en el inventario de actividades de desinformación de este año:

La actividad de las tropas cibernéticas sigue aumentando en todo el mundo. Este año, encontramos evidencia de 81 países que utilizan las redes sociales para difundir propaganda computacional y desinformación sobre política. Esto ha aumentado con respecto al informe del año pasado, en el que identificamos 70 países con actividad de tropas cibernéticas.
Durante el último año, las empresas de redes sociales han dado pasos importantes para combatir el uso indebido de sus plataformas por parte de las tropas cibernéticas. Los anuncios públicos de Facebook y Twitter entre enero de 2019 y diciembre de 2020 revelan que las plataformas han eliminado más de 317.000 cuentas y páginas. No obstante, las tropas cibernéticas que operan en todo el mundo todavía han gastado casi 10 millones de dólares en anuncios políticos.
Las empresas privadas ofrecen cada vez más campañas de manipulación. Durante el último año, encontramos cuarenta y ocho casos de empresas privadas que desplegaban propaganda computacional en nombre de un actor político. Desde 2018 ha habido más de 65 empresas que ofrecen propaganda computacional como servicio. En total, hemos descubierto que se gastaron casi US $ 60 millones en la contratación de estas empresas desde 2009.

https://comprop.oii.ox.ac.uk/research/posts/industrialized-disinformation/#continue

Los límites del discurso político: por qué tienen sentido las prohibiciones de Trump

Varias empresas de tecnología han prohibido recientemente a Donald Trump por incitar a una insurrección desenfrenada y mortal. Muchos han criticado estas decisiones como censura. Los expertos en la ley de libertad de expresión han explicado pacientemente que solo el estado está sujeto a la Primera Enmienda, no las empresas privadas. Desde esta perspectiva, la distinción entre lo público y lo privado es primordial, y las empresas de tecnología se ubican en el lado derecho de ella, como oradores mismos (en lugar de reguladores del habla). Pero, ¿y si es precisamente el carácter público de las empresas tecnológicas clave, su papel fundamental en la configuración de nuestro discurso político, lo que justifica las prohibiciones? Creo que tal comprensión podría ser fundamental para sanar la democracia de EE. UU., Y expongo un caso a continuación.

He estado pensando en la regulación de (y por) las plataformas de Internet durante muchos años. Mi preocupación inicial era que los monopolistas aprovecharan su poder sobre las búsquedas para extraer tarifas excesivas de los anunciantes, tratar el «contenido orgánico» de manera injusta o imprudente, o excluir a los competidores o las opiniones impopulares. Eso me llevó a mi primer testimonio ante el Congreso sobre el tema. A medida que la radicalización en línea se convirtió en una amenaza mayor, también apoyé el derecho y el deber de las plataformas de excluir las mentiras, las amenazas y los servicios peligrosos, y el poder del gobierno para regularlos para lograr lo mismo. Presenté este trabajo en Bruselas y Berlín, en este último contexto entre los reguladores de la Autoridad de Medios de Berlín y el Estado de Brandeburgo (MABB) con una profunda comprensión del papel histórico de los medios de comunicación en la incitación al ascenso del fascismo.

Según la doctrina clásica de la Primera Enmienda, el poder de las empresas privadas como Google, Apple, Twitter, Amazon y Facebook para negar el acceso a los usuarios es enorme. Pueden concebirse como medios (con amplias protecciones de la Primera Enmienda) o como una forma de “intermedia” (como las empresas de cable, que también pueden hacer valer los derechos de libertad de expresión). Es extraño escuchar a los conservadores quejarse de estos poderes, ya que trabajaron con tanto ahínco para ampliarlos. Pero también hay una cierta falsedad en simplemente responder «son empresas privadas, pueden hacer lo que quieran» a los reclamos de censura de la derecha. Si estas plataformas hubieran prohibido a ciertos políticos o causas liberales o de izquierda, habría un enojo justificado y pedidos de regulación gubernamental, tal vez incluso de las regulaciones «obligatorias» que describí en 2016.

Sin embargo, hay una manera de salir del impasse centrándose en el carácter excepcionalmente tóxico de Trump y las falsedades y teorías de conspiración en red que promueve. Las publicaciones de Trump tienen un efecto real y sustancial en impulsar la violencia y otras actividades antidemocráticas o peligrosas. Trump, entre sus más de 20.000 afirmaciones falsas o engañosas, ha acusado repetidamente a miembros de la oposición demócrata de actividad criminal. Ha engañado al público sobre COVID-19, con resultados desastrosos. Él y sus facilitadores en el Congreso y en línea, sin evidencia, han hecho afirmaciones infundadas sobre “volcados de votos” y elecciones robadas. Este tipo de mentira va al corazón de la democracia estadounidense. Y si lo creyó sinceramente, ya que se amplificó en un universo mediático lleno de políticos y periodistas que inventaron objeciones «basadas en» acusaciones que no estaban «basadas en» más que las objeciones originales, ¿por qué no consideraría apropiado arrestar al «Ladrones electorales», derrocar violentamente su gobierno e instalar Q para contar los votos electorales «reales»? La conclusión lógica de tales llamamientos políticos incendiarios, infundados y perentorios es la militancia, la violencia política y la insurrección.

Como ha informado Aaron Rupar, «el presidente está normalizando las teorías de la conspiración que retratan a sus oponentes políticos como pedófilos satanistas». Cuando son falsas, tales formas de discurso y atractivo político están más allá de los límites del discurso político porque previsiblemente generan violencia. Este tsunami de desinformación tampoco es nuevo. Como sostiene el historiador Timothy Snyder, Trump “nunca se tomó en serio la democracia electoral ni aceptó la legitimidad de su versión estadounidense. Incluso cuando ganó, en 2016, insistió en que la elección fue fraudulenta, que se emitieron millones de votos falsos ”. Sus partidarios abrazaron la retórica apocalíptica entonces y ahora. Pizzagaters impulsó una imagen de los principales demócratas como una cábala malvada del tráfico de niños. Probablemente se podría elegir de la cuenta de Twitter de Trump al azar para encontrar esfuerzos infundados para pintar a sus oponentes no solo como mal informados o equivocados, sino como amenazas a los cimientos de la democracia misma.

Esta fue, por supuesto, una forma de proyección. Y la respuesta no es el milquetoast «ambos bandos» que dice que cualquiera que intente pintar a un oponente como una amenaza a la democracia está más allá de los límites del discurso político. Más bien, es reconocer los esfuerzos infundados para hacerlo (como los de Trump) y darse cuenta de que esos esfuerzos son en sí mismos ejemplos de lo que afirman adelantar. La historia del fascismo enseña que esta es una forma común de aprovechar lo que Popper llamó la paradoja de la tolerancia.

El uso del término «fascismo» para describir el trumpismo ha sido controvertido entre algunos intelectuales. Pero las escalofriantes imágenes del nazismo y la Confederación a la vista en los disturbios de enero fueron ejemplos concretos del extremismo que ha florecido en línea. Los propios investigadores internos de Facebook han reconocido que «el 64% de todas las uniones a grupos extremistas se deben a nuestras herramientas de recomendación». La promoción de los valores nazis o confederados no debe ser un discurso político protegido (una lección que los tribunales franceses y alemanes parecen haber aprendido mucho mejor que los estadounidenses). La horca en los terrenos del Capitolio, así como los repetidos insultos raciales contra la Policía del Capitolio, no fueron contribuciones a la democracia. Más bien, eran parte de un esfuerzo por descarrilar la democracia subordinando y silenciando a las minorías. Como ha observado Sherrilyn Ifill, presidenta y directora asesora del Fondo de Educación y Defensa Legal de la NAACP, «los linchamientos fueron seguidos por la normalización, el silenciamiento y la impunidad. Como resultado, continuaron durante décadas sin control. Debemos hacer exactamente lo contrario en nuestra respuesta a este ataque «.

Hay al menos dos respuestas a las mentiras, el racismo y la violencia en el centro del ataque al Capitolio. Una es simplemente poner fe en un mercado de ideas sin restricciones, esperando que una masa crítica de republicanos trumpistas retroceda ante la idea de que las elecciones están amañadas para los demócratas, que se emiten millones de votos falsos, etc. Pero lo que reflejan las recientes prohibiciones Es una comprensión incipiente entre las empresas de tecnología de que este mercado de ideas es disfuncional. No se corrige a sí mismo, o al menos no se corrige lo suficiente como para evitar que un grupo significativo de personas (con las armas y los votos para causar un verdadero caos) actúen basándose en creencias falsas de que, por ejemplo, la elección presidencial de 2020 fue robado, que COVID-19 es solo una mala gripe, que los líderes demócratas son una camarilla de abusadores de niños, y así sucesivamente.

Por tanto, aplaudo las decisiones recientes de los medios tecnológicos dominantes y de intermedia no por su carácter privado, sino precisamente por las funciones públicas de esas empresas. Son las acciones que un estado autoprotector tomaría frente a una peligrosa desinformación si no estuviera sujeto a interpretaciones irrazonablemente expansivas de la ley de libertad de expresión. El movimiento violento y coordinado de un grupo pequeño pero poderoso de ciudadanos, para socavar el sentido compartido de una realidad común de la que dependen tanto la democracia como la salud pública, es un resultado previsible de esa vinculación de los gobiernos federal y estatal por parte de la Corte Suprema de los Estados Unidos.

En los Estados Unidos, los proyectos de relaciones públicas y litigios a largo plazo de la derecha (y algunos defensores de las libertades civiles) han ampliado gradualmente la interpretación de la Primera Enmienda para hacer que casi cualquier forma de autoprotección o limitación del discurso político parezca ilegítima si es realizada por el gobierno. estado. Por lo tanto, ahora debemos ponernos a merced de los directores ejecutivos de las empresas de tecnología para abordar algunos de los aspectos más peligrosos del trumpismo. Pero a la larga, el peligro que representa lo que Mary Ann Franks llama El culto a la Constitución merece un replanteamiento total de la relación entre el estado y la esfera pública.

Para decirlo sin rodeos: el discurso político democrático tiene límites. El debate sobre esos límites no es simplemente el dominio de los «especialistas de la Primera Enmienda». También se necesitan marcos de preservación de la democracia, antirracismo y seguridad nacional, como han enfatizado pensadores como Franks, Danielle Keats Citron, K-Sue Park, Joshua Geltzer y Peter W. Singer. Aquellos que conspirarían sediciosamente para derrocar el resultado de una elección no son solo una de las muchas facciones de nuestro sistema político pluralista. Son su enemigo. Y cuando se presentan en el edificio del Capitolio, o en las capitales de los estados, con una fusión de «protesta» y amenaza repleta de armas, están intimidando a los legisladores y jueces reales para que no hagan el trabajo de la democracia. La «contraprotesta» tampoco es una respuesta cuando sus oponentes temen recibir disparos o ser acosados.

https://balkin.blogspot.com/2021/01/the-bounds-of-political-discourse.html

Cómo los estados y las plataformas tratan con Covid-19 Desinformación: un estudio exploratorio de 20 países

 Los documentos de trabajo de la Red Global Digital de Derechos Humanos contienen tanto un idealista como una dimensión orientada a la práctica. A menudo es difícil pero siempre inevitable para el mundo académico llegar al «mundo real». Los académicos que trabajan con los derechos humanos digitales tienen desde hace algún tiempo se dio cuenta de que en el dominio digital de los derechos humanos la teoría importa menos y las soluciones técnicas importa más. La serie Working Paper, de nuevo idealista, intenta invertir este patrón.El nivel de pragmatismo de este objetivo depende de la capacidad de la Red para romper o al menos cuestionar el fortalecimiento de las empresas en línea como actores poderosos en la definición deimagen de los derechos humanos en el panorama digital. La actual edición inaugural muestra claramente cómo los tiempos turbulentos aceleran la solidificación del novedoso “paradigma digital” en la protección de los derechos humanos. Lo que en tiempos ordinarios han tardado décadas puede mostrarse como una tendencia importante en un breve período de tiempo debido a la crisis pandémica. Esto significa «normalización» de características que anteriormente se consideraban contestable. Por ejemplo, la ausencia de transparencia y previsibilidad como características inherentes de la gobernanza del contenido privado se ha aceptado tácitamente durante mucho tiempo debido al enfoque pasar del proceso de evaluación del contenido al resultado. Pero en tiempos difíciles, la gente esperar respuestas y justificación para las decisiones que afecten la forma en que pueden comunicarse.

https://leibniz-hbi.de/uploads/media/default/cms/media/fi1c9mo_GDHRNet_Working%20Paper1.pdf

Libro blanco en línea sobre daños

 El gobierno quiere que el Reino Unido sea el lugar más seguro del mundo para conectarse a Internet y el mejor lugar para iniciar y hacer crecer un negocio digital. Dada la prevalencia de contenido ilegal y dañino en línea y el nivel de preocupación pública por los daños en línea, no solo en el Reino Unido sino en todo el mundo, creemos que la economía digital necesita urgentemente un nuevo marco regulatorio para mejorar la seguridad de nuestros ciudadanos en línea. Esto reconstruirá la confianza pública y establecerá expectativas claras para las empresas, lo que permitirá a nuestros ciudadanos disfrutar de forma más segura de los beneficios que ofrecen los servicios en línea.

https://www.gov.uk/government/consultations/online-harms-white-paper/online-harms-white-paper

Cómo lidiar con la desinformación creada con IA

 Los ataques rápidos de desinformación, es decir, los ataques en los que la desinformación se desencadena de forma rápida y amplia con el objetivo de crear un efecto disruptivo inmediato, son uno de los desafíos más importantes del ecosistema digital. Considere lo siguiente hipotético: En la mañana del día de las elecciones en una elección presidencial estadounidense muy disputada, los partidarios de un candidato lanzan una campaña de desinformación [1] destinada a suprimir los votos a favor del candidato contrario en un estado clave de transición. Después de identificar los distritos en el estado donde es probable que la mayoría de los votantes voten por el oponente, los autores del ataque de desinformación desatan una sofisticada campaña en las redes sociales para difundir lo que parecen ser relatos en primera persona de personas que fueron a los lugares de votación en esos países. precintos y los encontró cerrados.

https://www.brookings.edu/research/how-to-deal-with-ai-enabled-disinformation/

Consideraciones para la investigación de mensajes cerrados en contextos democráticos

 Las aplicaciones de mensajería cerrada como WhatsApp, Facebook Messenger y WeChat han aumentado en uso en los últimos años y pueden actuar como medios políticos para difundir información. Al estudiar cuestiones relacionadas con las comunicaciones relacionadas con las elecciones, los investigadores se enfrentan a enigmas éticos debido a la naturaleza de privacidad encriptada de los chats grupales. Sehat y Kaminski presentan una revisión de cuatro modelos utilizados por los investigadores: contribución voluntaria, asociaciones focalizadas, entrada con identificación y entrada sin identificación. Concluyen planteando y analizando las complejidades de seis cuestiones éticas que los investigadores consideran implícita o explícitamente antes de la recopilación y el análisis de datos de investigación de mensajes cerrados. Estas preguntas abordan cuestiones de chats públicos frente a privados, propiedad de los datos, consentimiento informado, intercambio de información y conflictos de intereses.

https://montrealethics.ai/considerations-for-closed-messaging-research-in-democratic-contexts-research-summary/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Crea tu sitio web con WordPress.com
Comenzar