Regular las plataformas de redes sociales para defender la democracia, dicen los eurodiputados

En un debate con la Secretaria de Estado de Asuntos Europeos, Ana Paula Zacarias, de la Presidencia portuguesa del Consejo, y la Vicepresidenta de la Comisión, Věra Jourová, casi todos los oradores criticaron el enorme poder de las plataformas de redes sociales y su preocupante impacto en la política y la libertad de expresión. .

Citando varias decisiones tomadas por las plataformas para censurar contenido o cuentas, una gran mayoría en la cámara destacó la falta de reglas claras que gobiernen tales decisiones y la falta de transparencia de las prácticas de las grandes tecnologías. Instaron a la Comisión a abordar el tema en la Ley de Servicios Digitales y la Ley de Mercados Digitales, y como parte del Plan de Acción para la Democracia.

La mayoría de los oradores se centraron en la necesidad de brindar seguridad jurídica al eliminar contenido y de garantizar que tales decisiones recaigan en autoridades democráticamente responsables, y no en empresas privadas, para salvaguardar la libertad de expresión.

Otros temas planteados incluyeron:

la necesidad de defender la democracia y los valores de la UE combatiendo la desinformación y aumentando los esfuerzos para subvertirlos o incitar a la violencia;
la tecnología se utiliza para mejorar, en lugar de limitar, el discurso político, al tiempo que se aborda el problema de la proliferación del discurso de odio y la discriminación en línea;
la transparencia de los algoritmos, el uso de datos personales y la restricción (o prohibición) de las prácticas de microtargeting y elaboración de perfiles para alterar fundamentalmente los modelos comerciales de los gigantes tecnológicos;
los problemas causados ​​por el surgimiento de los monopolios tecnológicos y su impacto en el pluralismo de los medios, así como en el pluralismo en el discurso público;
la falsa dicotomía entre las esferas online y offline y la necesidad de reglas que cubran todos los aspectos de la vida; y
los riesgos sistémicos, así como los daños sociales y económicos, que las principales plataformas pueden causar o exacerbar.

Póngase al día con el debate grabado aquí.

Antecedentes

En octubre de 2020, en sus recomendaciones sobre la Ley de Servicios Digitales, el Parlamento destacó que la responsabilidad de hacer cumplir la ley debe recaer en las autoridades públicas, y que las decisiones deben recaer en última instancia en un poder judicial independiente y no en una entidad comercial privada. [5]

Las elecciones europeas de 2019 se protegieron de la desinformación a través de un plan de acción de la UE y el código de prácticas de la Comisión Europea para plataformas. Sin embargo, en el contexto del Plan de Acción para la Democracia, la Comisión ha confirmado que las medidas de autorregulación deben sustituirse por una combinación de medidas obligatorias y de corregulación para proteger adecuadamente los derechos fundamentales de los usuarios y regular la moderación del contenido.

Recientemente, el Parlamento también se ha pronunciado contra el deterioro de los derechos fundamentales, el preocupante estado de la libertad de los medios de comunicación en la UE y las campañas de desinformación en línea de actores nacionales y extranjeros.

https://www.europarl.europa.eu/news/en/press-room/20210204IPR97120/regulate-social-media-platforms-to-defend-democracy-meps-say

Cómo responsabilizar a las redes sociales por socavar la democracia

El problema con las redes sociales no es solo lo que publican los usuarios, es lo que las plataformas deciden hacer con ese contenido. Lejos de ser neutrales, las empresas de redes sociales toman decisiones constantemente sobre qué contenido amplificar, elevar y sugerir a otros usuarios. Dado su modelo de negocio, que promueve la escala por encima de todo, a menudo han amplificado activamente el contenido extremo y divisivo, incluidas las peligrosas teorías de conspiración y la desinformación. Es hora de que los reguladores intervengan. Un buen lugar para comenzar sería aclarar quién debería beneficiarse de la Sección 230 de la Ley de Decencia en las Comunicaciones, que ha sido muy sobreinterpretada para brindar inmunidad general a todas las empresas de Internet, o «intermediarios de Internet» para cualquier contenido de terceros que alojen. Específicamente, es hora de redefinir lo que significa un «intermediario de Internet» y crear una categoría más precisa para reflejar lo que realmente son estas empresas, como «curadores digitales» cuyos algoritmos deciden qué contenido impulsar, qué amplificar, cómo seleccionar nuestro contenido.

https://hbr.org/2021/01/how-to-hold-social-media-accountable-for-undermining-democracy

Consideraciones para la investigación de mensajes cerrados en contextos democráticos

 Las aplicaciones de mensajería cerrada como WhatsApp, Facebook Messenger y WeChat han aumentado en uso en los últimos años y pueden actuar como medios políticos para difundir información. Al estudiar cuestiones relacionadas con las comunicaciones relacionadas con las elecciones, los investigadores se enfrentan a enigmas éticos debido a la naturaleza de privacidad encriptada de los chats grupales. Sehat y Kaminski presentan una revisión de cuatro modelos utilizados por los investigadores: contribución voluntaria, asociaciones focalizadas, entrada con identificación y entrada sin identificación. Concluyen planteando y analizando las complejidades de seis cuestiones éticas que los investigadores consideran implícita o explícitamente antes de la recopilación y el análisis de datos de investigación de mensajes cerrados. Estas preguntas abordan cuestiones de chats públicos frente a privados, propiedad de los datos, consentimiento informado, intercambio de información y conflictos de intereses.

https://montrealethics.ai/considerations-for-closed-messaging-research-in-democratic-contexts-research-summary/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Por qué las redes sociales no pueden seguir moderando el contenido en la sombra

 En 2016, podía contar por un lado los tipos de intervenciones que las empresas de tecnología estaban dispuestas a utilizar para librar a sus plataformas de información errónea, discurso de odio y acoso. A lo largo de los años, los mecanismos toscos como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto de herramientas más complejo, que incluyen temas de cuarentena, eliminación de publicaciones de la búsqueda, recomendaciones de exclusión y clasificación descendente de publicaciones en prioridad.

Y, sin embargo, incluso con más opciones a su disposición, la desinformación sigue siendo un problema grave. Hubo mucha cobertura sobre la desinformación el día de las elecciones; mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter trató de lidiar con el contenido usando el hashtag #BidenCrimeFamily, con tácticas que incluían «desindexación» al bloquear los resultados de búsqueda, los usuarios incluido Donald Trump adaptado utilizando variantes de la misma etiqueta. Pero todavía no sabemos mucho sobre cómo Twitter decidió hacer esas cosas en primer lugar, o cómo pesa y aprende de las formas en que los usuarios reaccionan a la moderación.

https://www.technologyreview.com/2020/11/06/1011769/social-media-moderation-transparency-censorship/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Establecer sistemas, poderes y capacidades para analizar los algoritmos y su impacto

 La sesión informativa está dirigida principalmente a los responsables de la formulación de políticas y presenta los conocimientos de un taller de expertos junto con nuestras recomendaciones correspondientes, con un enfoque en el Reino Unido y la Unión Europea. También debería ser útil para los reguladores y las empresas de tecnología que estén pensando en métodos, habilidades y capacidad para inspeccionar sistemas algorítmicos.

https://www.adalovelaceinstitute.org/algorithms-in-social-media-realistic-routes-to-regulatory-inspection/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Algoritmos y democracia – AlgorithmWatch Online Policy Dialogue, 30 de octubre de 2020

 Cuando los sistemas de recomendación eligen qué información promover y qué ocultar, afectan profundamente lo que sabemos sobre el mundo. Naturalmente, asumimos que las cosas que vemos primero son las más importantes: las noticias más precisas, la opinión más compartida. Y las cosas que son empujadas hacia abajo en nuestros feeds, o eliminadas por completo por los sistemas de moderación de contenido, bueno, esas cosas bien podrían no existir. Esas son buenas noticias, por supuesto, si hablamos de contenido ilegal. Pero muchas veces, significa que estos sistemas eligen qué argumentos e ideas legítimos vemos, todo sin pedir nuestro permiso o incluso sin decirnos lo que están haciendo.

Todo se parece un poco a The Truman Show, esa película en la que Jim Carrey vive en un mundo que cree que es real, pero que en realidad es solo un programa de televisión. El mundo que vemos a través de estas plataformas parece tan real que puede ser difícil recordar que en realidad está construido, construido a través de las elecciones que hacen los algoritmos sobre lo que deberíamos ver.

https://ec.europa.eu/commission/commissioners/2019-2024/vestager/announcements/algorithms-and-democracy-algorithmwatch-online-policy-dialogue-30-october-2020_en

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Cinco problemas tecnológicos que enfrenta la próxima administración

 Grotto y Zacharia llevaron su propuesta de camino al New York Times, ABC, NPR y otros. “Todavía no hemos encontrado una organización de noticias que tenga un plan en marcha”, dice Zacharia. Ella y Grotto aconsejaron a las organizaciones que se consideraran a sí mismas un adversario objetivo. “Piensa si te están engañando o usando”, dice, “aumenta tu escepticismo. Desarrolle el músculo de su organización para determinar el origen y la naturaleza de la información viral «.

https://hai.stanford.edu/blog/expert-roundtable-five-tech-issues-facing-next-administration

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Modelando la Creatividad Humana a Gran Escala

En este podcast de Future of Everything con el director asociado de HAI, Russ Altman, Chen analiza este dilema del artista y las percepciones cambiantes del éxito del artista, cómo las plataformas tienen el potencial de dar forma a la creatividad humana a gran escala y cómo también resuelven un problema importante: ayudar clasificamos cantidades masivas de información. También comparte su trabajo estudiando memes y las estructuras de incentivos que ayudan a que el contenido digital se vuelva viral.
«Estos sistemas son muy nuevos y todavía están siendo diseñados y rediseñados», dice ella. «No es demasiado tarde para hacer las preguntas correctas sobre por qué estamos haciendo esto y para qué nos estamos optimizando». Estos son sistemas poderosos y predictivos que están dando forma a la creatividad humana, nuestros comportamientos y nuestra percepción de lo que es real, por lo que realmente importa que lo hagamos bien «.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Crea tu sitio web con WordPress.com
Comenzar