La lucha contra las falsificaciones en la política europea

https://www.europarl.europa.eu/thinktank/es/document.html?reference=EPRS_STU(2021)690039

La aparición de una nueva generación de medios de comunicación manipulados digitalmente -también conocidos como deepfakes- ha generado una gran preocupación por su posible uso indebido. En respuesta a estas preocupaciones, este informe evalúa los aspectos técnicos, sociales y normativos de los deepfakes. El rápido desarrollo y la difusión de los deepfakes se producen en el contexto más amplio de un sistema mediático cambiante. Una evaluación de los riesgos asociados a los deepfakes muestra que pueden ser de naturaleza psicológica, financiera y social, y sus impactos pueden ir desde el nivel individual hasta el social. El informe identifica cinco dimensiones del ciclo de vida de las deepfakes que los responsables políticos podrían tener en cuenta para prevenir y abordar los impactos adversos de las deepfakes. El informe incluye opciones políticas en cada una de las cinco dimensiones, que podrían incorporarse al marco legislativo de la IA, al paquete de leyes de servicios digitales y a otros ámbitos. Es probable que sea necesaria una combinación de medidas para limitar los riesgos de las falsificaciones profundas y aprovechar su potencial.

Una nueva taxonomía del uso de la imagen en la conformación interesada del relato digital. Deep fakes e inteligencia artificial

https://revista.profesionaldelainformacion.com/index.php/EPI/article/view/83076

Cualquier confrontación pretende la imposición, siquiera parcial, de los criterios y la voluntad propios sobre los del adversario. En los últimos años, las tecnologías digitales y la ciencia de datos se han combinado para favorecer la aparición de nuevas formas de control del discurso y para establecer potentes campañas de desinformación que constituyen un nuevo tipo de conflicto con características digitales. Precisamente, a partir de la bibliografía disponible y del trabajo directo de los autores en diversos grupos de expertos, este artículo estudia el uso de las imágenes –reales, alteradas o generadas artificialmente por completo– estáticas o en movimiento como uno de los medios más eficientes para alterar las percepciones y, por lo tanto, los relatos dentro del denominado ámbito cognitivo. Para ello, el artículo recoge de forma ordenada y exhaustiva la más reciente doctrina del entorno militar y de inteligencia relativa a las llamadas “operaciones de influencia”, desde una doble perspectiva tecnológica y sociológica. A partir de aquí, determina las diferencias entre las técnicas de desinformación tradicionales y las que incorporan tecnologías digitales y de inteligencia artificial sobre imágenes. El artículo propone una nueva taxonomía de doble entrada que refleje el grado de manipulación de las imágenes y el objetivo que se persigue con la desinformación. Este puede ser un medio para identificar y priorizar los casos más relevantes y, de aquí, adoptar las correspondientes contramedidas. Éstas se examinan en detalle para concluir que sólo una combinación de transparencia, formación del consumidor, tecnología y legislación puede contrarrestar el creciente uso de imágenes con contenido falseado.

Preparándose para la Era de los Deepfakes y la Desinformación

 Describe los problemas que introduce la difusión de deepfakes y propone varias medidas de firma criptográfica en origen o registro de grabaciones de vídeo. Creo que la fe en la seguridad criptográfica es algo excesiva, pues eventualmente será crackeada.

https://hai.stanford.edu/sites/default/files/2020-11/HAI_Deepfakes_PolicyBrief_Nov20.pdf?utm_source=twitter&utm_medium=social&utm_content=Stanford%20HAI_twitter_StanfordHAI_202011031015_sf131682962&utm_campaign=&sf131682962=1

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Deepfakes y el futuro de la verdad

 Es cada vez más fácil crear videos convincentes, pero falsos, mediante inteligencia artificial. Estos “deepfakes” pueden tener aplicaciones creativas en el arte y la educación, pero también pueden causar un gran daño, desde arruinar la reputación de una ex pareja hasta provocar conflictos internacionales o elecciones cambiantes. Cuando ver para no creer, ¿en quién podemos confiar y pueden sobrevivir la democracia y la verdad?

https://www.bravenewplanet.org/episodes/deepfakes-and-the-future-truth

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Max Hill dice que el aumento de las pruebas de audio y video manipuladas representará un riesgo para la justicia en futuros casos legales

Los fiscales pronto tendrán que descifrar si las pruebas son reales o «profundamente falsas», advirtió el Director del Ministerio Público.

En una visión escalofriante del futuro, Max Hill QC dijo que los abogados pueden tener que considerar rutinariamente si las grabaciones de voz y las imágenes de video han sido falsificadas o manipuladas para implicar o exonerar a los infractores. 

https://www.dailymail.co.uk/news/article-8745283/Max-Hill-says-rise-doctored-video-audio-evidence-pose-risk-justice.html

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Debate sobre la ética de los deepfakes

 Deepfakes hace posible fabricar medios, a menudo sin consentimiento, y causar daños psicológicos, inestabilidad política y trastornos comerciales. El armamentismo de deepfakes puede tener un impacto masivo en la economía, la libertad personal y la seguridad nacional. Las implicaciones éticas de deepfake son enormes. Los modelos de amenazas deepfake, los marcos de daños, los principios éticos de la IA y las regulaciones de sentido común deben desarrollarse a través de asociaciones y la supervisión de la sociedad civil para promover la conciencia y fomentar el avance y la innovación.

https://www-orfonline-org.cdn.ampproject.org/c/s/www.orfonline.org/expert-speak/debating-the-ethics-of-deepfakes/?amp

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La amenaza epistémica de los deepfakes

 Los deepfakes son videos realistas creados con nuevas técnicas de aprendizaje automático en lugar de los medios fotográficos tradicionales. Suelen representar a personas diciendo y haciendo cosas que en realidad no dijeron ni hicieron. En los medios de comunicación y la blogósfera, ha surgido la preocupación de que, como resultado de las falsificaciones profundas, nos dirigimos hacia un “infopocalipsis” en el que no podemos distinguir entre lo que es real y lo que no lo es. Varios filósofos (por ejemplo, Deborah Johnson, Luciano Floridi, Regina Rini) han emitido ahora advertencias similares. En este artículo, ofrezco un análisis de por qué los deepfakes son una amenaza tan seria para el conocimiento. Utilizando el relato del transporte de información desarrollado recientemente por Brian Skyrms (2010), sostengo que los deepfakes reducen la cantidad de información que los videos llevan a los espectadores. Concluyo señalando algunas implicaciones de este análisis para abordar la amenaza epistémica de las falsificaciones profundas.

https://link.springer.com/article/10.1007/s13347-020-00419-2

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Deepfakes explicadas

Las Deepfakes se pueden utilizar para manipular y amenazar a individuos y empresas. Pero con una mejor comprensión de la tecnología, los ejecutivos pueden tomar medidas para protegerse a sí mismos y a sus empresas.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Primer uso de Deepfakes en una campaña electoral india

El 7 de febrero, un día antes de las elecciones a la Asamblea Legislativa en Delhi, dos videos del presidente del Partido Bharatiya Janata (BJP) Manoj Tiwari criticando al actual gobierno de Arvind Kejriwal en Delhi se volvieron virales en WhatsApp. Mientras que un video tenía a Tiwari hablando en inglés, el otro era él hablando en el dialecto hindi de Haryanvi. “[Kejriwal] nos engañó sobre la base de promesas. Pero ahora Delhi tiene la oportunidad de cambiarlo todo. Presione el botón de loto el 8 de febrero para formar el gobierno liderado por Modi ”, dijo.
Uno puede pensar que este monólogo de 44 segundos podría ser parte del alcance político estándar, pero hay una cosa que no es estándar: estos videos no eran reales.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Crea tu sitio web con WordPress.com
Comenzar