Engañando con IA: Cuando la IA aprende a mentir

En IA se utilizan los ejemplos adversarios para hacer más robustos los modelos.
Es necesario comprender la amplitud de qué significa «Engaño de IA» y lo que ocurre cuando no está la intención humana tras una IA mentirosa.
Bond y Robinson definenel engañocomo «la falsa comunicación en beneficio del comunicador». Whaley incluye la intención demanipularal otro.
Tener intención significa tener conocimiento de uno mismo y poder razonar sobre entidades externas y sus intenciones, deseos, estados y posibles comportamientos. Si se define engaño de la IA con una intención definida así, requeriría una IA con cierta teoría de la mente,lo que no existe, así que vamos a tratar el engaño apoyado en la intención humana de usar la IA para engañar.
Que la IA no tenga una teoría de la mente no significa que no pueda aprender a engañar, aunque en realidad no sepan lo que hacen. Es tan fácil como ocultar información o suministrar informaciónfalsa para lograr un objetivo.
Se puede describir dos tipos deengaños:
  1. actos de comisión, donde p.e. un agente envía información incorrecta
  2. actos de omisión, donde un agente es pasivo y retiene información o la oculta
En ciberdefensa puede aprender a señalizar distintas formas de desinformación o como un enjambre de dispositivos IA pueden aprender comportamientos engañosos en el campo de batalla para eludir la detección del enemigo. Un ejemplo más común sería un asistente inteligente de impuestos malo podría omitir ingresos para minimizar el pago de impuestos.
El primer paso para defenderse de los engaños es reconocer que ya engañan, y que seguirán engañando. Cómo ocurre, si es un rasgo deseable, y si podemos detectarlo cuando ocurra .
Luego habrá que empezar a diseñar nuevas soluciones para detectar y mitigar engaños no deseados de agentes inteligentes. 
Actualmente hay montones de retos de engaños y van a aumentar conforme aumenten las capacidades cognitivas. Conforme la IA aumente en su capacidad de sentir, creer, detectar emociones, influir en acciones y emociones… las posibilidades de engaño serán mayores.
Antes de que la situación empeore debería pensarse en soluciones políticas,legales, técnicas y éticas. Una mejor comprensión de la situación permitirá analizar mejor posibles respuestas a engaños y empezar a diseñar sistemas inteligentes para la verdad.
https://spectrum.ieee.org/automaton/artificial-intelligence/embedded-ai/ai-deception-when-your-ai-learns-to-lie

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: