La falsa promesa de la "IA Ética"

El uso de algoritmos «en la naturaleza» para medir, cuantificar y optimizar cada aspecto de nuestras vidas ha generado crecientes preocupaciones públicas y una mayor atención por parte de los reguladores. Pero entre la lista de respuestas hay algunas ideas poco prácticas, entre ellas las que se promueven bajo la bandera de «IA ética».

https://www.nepal24hours.com/the-false-promise-of-ethical-ai/#.XqdFFkQ4LCY.twitter

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Tres retos éticos de la IA en Ciberseguridad

Los tres retos donde se debe considerar la ética son robustez del sistema, resliencia del sistema y respuesta del sistema.

https://www.academia.edu/39407123/Three_Ethical_Challenges_of_Applications_of_Artificial_Intelligence_in_Cybersecurity?email_work_card=title

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Guías de Ética de la IA no resolverán los problemas

Recientemente la UE ha publicado un libro blanco sobre guías éticas de la IA incluyendo preocupaciones sobre privacidad y dignidad humana. También el Pentágono ha finalizado las suyas. Oxford también ha lanzado un programa para mantener la IA recta y estrecha y el WorldEconomic Forum ha resaltado las profundas implicaciones morales de la IA.

En el fondo el miedo está detrás. Las anteriores tecnologías se podían controlar pero la IA reemplazará nuestras ideas. Los dispositivos de ahorro de trabajo se convierten en máquinas de toma de decisiones que operan en un vacío moral.

Hasta ahora las peticiones han ido a los programadores que escriben los algoritmos. El problema es que la IA aprende por sí misma. El rumbo que toman se inicia por quienes inician el código.

Lo que está en juego es mucho en cuanto el Pentágono quiere automatizar la toma de decisiones. La UE, el WEF y el Pentágono pueden estar alarmados por la ética de la IA, pero en realidad son los mismos problemas de siempre en technicolor, problemas nunca resueltos y que probablemente nunca lo serán.

Los problemas éticos siguen estando ahí desde Aristóteles. Si Newton y Einstein resolvieron la física, se espera que la IA resuelva la ética, pero laética es un problema diferente. Los humanos tomamos decisiones, instintivamente identificamos el bien y el mal en distintas cosas el mismo tiempo, los motivos tras una elección, el tipo de acción que hacemos y sus consecuencias. La IA actual se centra en una cosa al mismo tiempo, pero siempre se dejará algo fuera.

Entonces, si un sistema de IA está seguro de qué hacer cuando las buenas acciones conducen a un mal resultado, o cuando los malos motivos ayudan a las personas, deberíamos ser muy cautelosos: estaría ofreciendo claridad moral cuando realmente no hay ninguna.

Es concebible que la IA, en lugar de ser una causa de problemas morales, pueda ayudar a resolverlos. Al usar big data para anticipar el futuro y al ayudarnos a resolver lo que sucedería si todos siguieran ciertas reglas, la inteligencia artificial hace que la ética basada en reglas y consecuencias sea mucho más fácil. Aplicada cuidadosamente, la IA podría ayudar a responder algunos dilemas morales difíciles. En unos pocos años, el mejor consejo ético puede venir incluso de una aplicación en nuestros teléfonos.

Tanto el enfoque de la Comisión Europea como el del Pentágono dejan abierta esa posibilidad.

Sin embargo, no significaría que se hayan resuelto los profundos problemas éticos planteados por la ética artificial. Nunca se resolverán, porque no tienen una solución única y segura.

https://www.wearethemighty.com/military-culture/ai-guidelines-wont-solve-ethics

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Pensando sobre ‘Ética’ en la Ética de la IA

Una importante consultora internacional ha identificado en 2019 «Eticista de IA» como un puesto esencial para las empresas que implementan con éxito la IA. En muchos ámbitos de la sociedad se considera que IA puede ser beneficiosa, pero también puede dañar a las personas y a la sociedad. A fin de evitar los fallos  y consecuencias dañinas, su papel se suele identificar en a) examinar las dimensiones políticas, sociales, legales y éticas de la IA y b) desarrollar guías éticas recomendaciones para desarrollar e implementar IA.

Los asuntos técnicos a veces impiden el examen serio de problemas éticos de la IA. Las definiciones de IA son muy variadas, hay diversas formas de comprensión y cada una aporta sus propias complicaciones. Por eso, para evitar confusiones y el riesgo de gente hablando cada uno de lo suyo, cualquier discusión significativa de Ética de la IA requiere la explicación de la definición de IA que se esté empleando así como el tipo de IA que se está debatiendo. Vamos a usar la definicion de European Commission High-Level Expert Group on Artificial Intelligence que define la IA como «sistemas de software (y posiblemente también hardware) diseñados por humanos que, dado un objetivo complejo, actúan en la dimensión física y psíquica percibiendo su entorno mediante la adquisición de datos, razonando sobre el conocimiento o procesando información derivada de estos datos y decidiendo las mejores acciones para alcanzar ese objetivo. Los sistemas IA pueden usar reglas simbólicas o aprender un modelo numérico y pueden también adaptar su comportamiento analizando como queda afectado el entorno por sus acciones previas».

Para dar una guía el análisis ético de IA necesita especificar la tecnología: vehículos autónomos, sistemas de recomendación, etc., y los métodos como deep learning, reinforcement learning,… Aquí vamos a tratar de agentes inteligentes autónomos, los que deciden y actúan sin intervención humana.

Veamos primero los vehículos autónomos. La posibilidad de accidentes que podía incluir daños inevitables a los pasajeros o a peatones, obliga a los investigadores y desarrolladores a considerar cuestiones sobre aceptabilidad ética de las decisiones de los AV, p.e., qué decisiones deberían tomar los AV en esos escenarios, cómo se justifican esas decisiones, qué valores reflejan los AV en sus decisiones.

También tenemos algoritmos de contratación que se han introducido para automatizar el proceso de recomendar, acortar listas y posiblemente recortar candidatos. Los algoritmos de selección típicamente funcionan usando los criterios aprendidos de un dataset. Desafortunadamente los datos de entrenamiento pueden estar sesgados lo que produciría modelos potencialmente discriminatorios.

A fin de asegurar la protección frente a la discriminación, lo que no es solo un derecho humano sino también parte de la legislación de muchos países, hemos de asegurarnos que tales algoritmos no solo  no discriminan sino que son idealmente equitativos. Hay, sin embargo, diferentes formas de enterder la equidad: las personas discrepan no solo en lo que significa equidad, la concepción adecuada de equidad puede depender del contexto. Más aún, se ha demostrado que deferentes métricas de equidad no se pueden mantener simultáneamente. Esto levanta la cuestión de cómo se debe concebir valores como la equidad en su contexto y cómo se deben implementar.

Una de las cuestiones fundamentales en la ética de la IA se puede denominar el problema del alineamiento ¿cómo podemos construir IA que esté alineada con los valores sociales aceptados. Virginia Dignum ha caracterizado tres dimensiones dela Ética de la IA: «Ética por Diseño», «Ética en el Diseño» y «Ética para el Diseño» y son útiles para identificar dos respuestas diferentes al problema del alineamiento de los valores.

Construyendo una IA Ética: Pespectivas y Limitaciones

Ética por Diseño es «la integración técnica/algorítmica de capacidades de razonamiento como parte del comportamiento de [IA autónoma]». Esta línea de investigación también se conoce como `ética de

las máquinas’. La aspiración dela ética de las máquinas es construir agentes morales que son agentes con capacidades éticas y por tanto pueden tomar decisiones éticas sin intervención humana. La ética de las máquinas así responde al problema del alineamiento de los valores mediante la construcción
de IA autónoma que ella misma se alinee con los valores humanos. Para ilustrar esta perspectiva con los AV y algoritmos de reclutamiento: los investigadores y desarrolladores se esforzarían en crear AVs que puedan razonar sobre la decisión correcta y actuar según ella en escenarios de daño inevitble. Igualmente, los algoritmos de reclutamiento se suponen que toman decisiones no discriminatorias sin intervención humana.

Wendell Wallach y Colin Allen han clasificado tres enfoques de la ética de las máquinas en su libro Moral machines. Los tres tipos son (i) enfoques top-down, (ii) enfoque bottom-up y (iii) enfoques híbridos que fusionan los anteriores. En la forma más simple, los enfoques top-down intentan formalizar e implementar una teoría ética específica en la IA autónoma, mientras que el enfoque bottom-up busca crear IA autónoma que pueda aprender del entorno a de un conjunto de ejemplos que son éticamente correctos y erróneos. El enfoque híbrido combina ambas estrategias.

Estos enfoques tienen diversas limitaciones teóricas y técnicas. Por ejemplo, los enfoques top-down necesital salvar el reto de encontrar y defender una teoría ética inontrovertible entre las tradiciones filosóficas en cflicto. De otro modo la IA ética se construiría sobre verdades o flasedades inadecuadas. Los enfoques bottom-up infieren lo bueno y lo malo de lo popular de los ejemplos, pero eso no significa unos principios éticos genuinos porque el uso social no es justificación ética. Además, está el reto técnico de construir una IA ética que pueda discernir entre información ética relevante e irrelevante. Esta capacidad se requeriría tanto para la aplicación de principios éticos en los enfoques top-down como para la adquisición con éxito e los principios en los enfoques bottom-up.

Además de los retos teóricos y técnicos, algunas críticas han nivelado la construcción de IA ética con las capacidades éticas. Primero, la IA autónoma en general y la IA ética en particular puede minar significativamente la autoni¡omía humana porqur las decisiones quetoman por nosotros o sobre nosotros pueder quedar fuera de control y así reducir nuestra independencia de influencias exteriores. Segundo, sige sin estar claro quiém o qué debería ser responsable d las decisiones erróneas de la IA autónoma,lo que preocupaciones sobre la responsabilidad moral de nuestros actos. Finalmente los investigadores han argumentado que convertir la IA autónoma en agentes morales o pacientes morales innecesariamente complica nuestro mundo moral al introducir en él cosas no familiares extrañas a nuestra comprensión moral, por tanto añadiendo yna carga innecesaria sobre los seres humanos al obligarnos a prestar una atención moral indebida a la IA autónoma.

Ética de las Máquinas, Ética Truncada

Nuestra revisión de los relos técnicos, teóricos y éticos de la ética de las máquinas no pretende ser exhaustivo oconclusivo y estos retas podróían ser superados en el futuro. No obstante, pensamos que estos retos aseguran una pausa y reconsideración de las perspectivas al construir la Ia ética. De hecho, queremos adelantar una crítica fundamental de la ética de las máquinas antes de explorar otro camino para resolver el problema del alineamiento de los valores.

Recordarán que el obetivo de la ética de las máquinas es construir una IA autónoma Que pueda tomar decisiones éticas y actuar eticamente sin intervención humana se amplifica al imbuir la inteligencia artificial autónoma las capacidades de tomar decisiones éticas y realizar acciones éticas lo que refleja una particular comprensión de ética que tenemos que problematizar más específicamente enfocarse solamente en las capacidades de toma de decisión ética y acción las máquinas son susceptibles de vistas visiones truncadas de la ética que vean las decisiones éticas y las acciones como separables de su contexto social y relacional. el filósofo y novelista Iris Murdoch por ejemplo hace tiempo argumento que la moralidad no es solo sobre una serie de reacciones que tienen lugar en una serie de situaciones específicas hables sino sobre la autorreflexión de actitudes un complejas de la vida que se muestran continuamente y se elabora hacia dentro del discurso pero no son temporales separables temporalmente en situaciones. Para Murdock lo que es ético está inherentemente ligado a valores de fondo. Por tanto es esencial pensar sobre ética mirar más allá de las capacidades para tomar decisiones y acciones y los momentos de elección ética y el fondo de los valores historias detrás de la elección de cada acción. Argumentos similares se han hecho para firmar el papel de lo contesto social y relacional en para limitar las elecciones éticas y conformar los resultados Morales y así la importancia de tenerlas en cuenta en nuestra reflexión ética punto y aparte siguiendo esta línea de crítica el énfasis en buir a la inteligencia artificial autónoma de capacidades éticas la ética de las máquinas se puede ver como en cuanto al énfasis en los hechos de los resultados éticos de la inteligencia butano ma-es está conformados de múltiples factores externos interconectados a su capacidades de razonamiento ético y que hay un proceso extendido de negociación social y política en los criterios de rectitud y equivocación subyacente a las decisiones éticas y en las acciones hechas por inteligencia artificial autónoma. 

la lección clave de estos dos ejemplos es que tener algunos principios éticos o reglas inscritas en la inteligencia artificial autónoma es insuficiente para resolver el problema del alineamiento de valores porque el fondo y el contesto contribuyen a nuestro juicio global de lo que es ético deberíamos recordarnos a nosotros mismos que la inteligencia artificial siempre se sitúa en un contexto social y relacional más amplio y así no podemos solamente enfocarnos en su capacidad de decisión toma de decisiones morales y acciones.de hemos considerar no solamente que decisiones y acciones debería reducir la inteligencia artificial, sino también porque nosotros hola sociedad piensan que esas decisiones y acciones son éticas cómo llegamos a esos puntos de vista y si estamos justificados en pensaras y. Según esto moral machines el experimento de máquinas Morales es gestionable injusticia injustificable mente asume que la mayor respuesta intuitiva o popular a los accidentes y escenarios es la respuesta ética. Desde luego encuadradas las cuestiones nos da dos ventajas primera podemos fácilmente incluir otros parties y factores pasear inteligencia de autónoma en nuestra reflexión ética también segundo hace explícito la posibilidad de renegociar qué principios éticos o reglas deberían estar inscritas en la inteligencia autónoma.
Una ética distribuida de inteligencia artificial
para ser claro no negamos la necesidad de examinar los valores embebidos en la tecnología y la importancia de diseñar y construir tecnología con valores que estén alineados con los intereses humanos como los ejemplos de este artículo muestra la inteligencia artificial autónoma puede jugar un papel en la toma de decisiones éticas y puede llevar a resultados eticamente relevantes, así es necesario tanto examinar los valores en bebidas en ella y usar en valores compartidos sociales para guiar su diseño y desarrollo. lo hacemos queremos cuestionar la expiración de delegar el razonamiento ético y el juicio a las máquinas y por tanto extraer el razonamiento y juicio de los contextos sociales y relacionales. una propia cuenta de la ética de la inteligencia artificial debería expandir su ámbito de reflexión e incluir otros elementos y factores que sean relevantes para la decisión de decisiones médicas y contribuir a los resultados de la inteligencia artificial autónoma punto para este extremo es esencial para la ética en la inteligencia artificial incluir los distintos e involucrados como los forjadores de políticas los líderes de las compañías diseñadores ingenieros usuarios no usuarios y el público en general en la reflexión ética de la inteligencia artificial autónoma. desde luego solamente haciéndolo así podemos pfi-120 resolver la cuestión es uno porque pensamos que las decisiones y los resultados del inteligencia artificial son éticas 2 cómo llegamos a tales decisiones y tres si estamos justificados en nuestros juicios.
deberíamos llamar a esta ética de la inteligencia artificial es bandida una ética distribuida que la inteligencia artificial punto el término distribuidor pretende capturar el hecho de que múltiples partes y factores son relevantes y han contribuido a los resultados de la inteligencia artificial autónoma y así la responsabilidad de ellos está distribuida entre los factores y las partes relevantes y contribuyentes. Para usar los ejemplos de vehículos autónomos y algoritmos de reclutamiento 2 puntos una pobre planificación urbana y facilidades instalaciones de carreteras debería ser preocupaciones legítimas en la ética de los vehículos autónoma de la misma forma los sexos existentes sociales y culturales son consideraciones válidas para los algoritmos de selección de personal ético punto por tanto el diseño implementación de la inteligencia artificial debería tomar las desigualdades sociales existentes y las injusticias en consideración tener en cuenta de ellos y mejor de los casos incluso el tender aliviarlos a través de sus decisiones de diseño.
la ética distribuida de la inteligencia artificial necesita lo que dignum ha etiquetado como ética en el diseño es decir los métodos de regulatorios y de ingeniería que apoyan el análisis y evaluación de las implicaciones éticas de los sistemas de inteligencia artificial en cuanto integra o reemplaza estructuras y sociales tradicionales así como ética para el diseño los códigos de conducta normas y procesos de certificación que aseguran la integridad desarrolladores y usuarios en cuanto investigan diseñan construyen emplean y gestiona sistemas artificiales inteligentes. Las cuestiones éticas de los vehículos autónomos no se pueden resolver con mejores capacidades éticas individualistas sino solo a través de efectos colectivos esfuerzos colectivos punto para guiarte al ser fuerzas colectivos Lucky asepticas ofrecen un medio útil para sacar valor y principios reflexión basada en valor y principios para la inteligencia artificial autónoma y para coordinar efectivamente los esfuerzos entre diferentes partes relevantes y contribuyentes.
Conclusiones sobre la inteligencia artificial fiable de la Unión
en abril de 2019 el club público ethics guidelines for trustworthy ai que concretan la visión europea de la inteligencia artificial. Según estas guías Europa debería invertir y desarrollar trustworthy ella que sea legal ética y robusta. hay dos puntos en las guías que merecen especial mención en está el tema de discusión actual. Primero es interesante notar que las preocupaciones sobre confianza en las guías son no solamente sobre las propiedades inherentes de la tecnología sino también las cualidades de los sistemas sociotecnicos envueltos en las aplicaciones de inteligencia artificial. dirigirse hacia atrás gordi ella y por tanto preocupa no solamente a la confianza en el propio sistema sino que requiere un enfoque sistémico holístico qué es un la confianza de todos los actores y procesos que sean parten del concepto sociotecnico a través de todo su ciclo de vida punto a este respecto la visión de trustworthy y hay claramente encaja con la ética distribuida la inteligencia artificial tal como se ha descrito previamente segundo también es interesante notar que los cuatro principios éticos identificados en la guía son principios de medio nivel es decir 1 el principio de respeto a la autonomía humana 2 el principio de prevención de daño 3 el principio de equidad 4 principio de aplicabilidad aparte la formulación de principios éticos basada en principios de medio al nivel y el medio es particularmente iluminadora porque los principios de nivel medio requieren interpretación humana y un orden en su aplicación y no se pretende que se implementen en la inteligencia artificial autónoma necesitan para ser interpretados y ordenador también datos de contexto social y relacional donde los recursos para dónde están donde descansan los principios de interpretación y ordenación punto y aparte mientras la visión europea detrás gordi ella and the island a tienen una fundamento sólido hay cierto número de problemas con ellos por ejemplo el uso de principios de nivel medio en las playas permite considerable espacio de interpretación en cambio puede ser usado para tractores malevolente para elegir las interpretaciones y escuchar su propia responsabilidad. Este problema está ahí más liado con el énfasis de las guías en la autorregulación de los políticos y la compañía pueden pagar lipservice a la visión europea con medidas baratas y superficiales como propaganda y establecer pues comités asesores simbólicos sí que no si enfoque sustancialmente en los impactos negativos de la inteligencia artificial punto por tanto haysignificantes problemas relacionados con el marco regulatorio institucional actual para la ética de la inteligencia artificial y para llevar a cabo está misión europea. Particularmente se necesita crear un marco claro para una distribución justa de los beneficios y riesgos de la inteligencia artificial y la necesidad de introducir leyes duras y regulaciones contra la violación de los valores éticos básicos y los derechos humanos. no obstante estos problemas las guías se enfocan en los seres humanos y más allá de la tecnología deberían ser tomados como un punto de arranque normativo en la ética de la inteligencia artificial y para la visión europea. Para acabar este artículo queremos recordar que las cuestiones éticas sobre la inteligencia artificial autónoma son distribuidas por naturaleza y nosotros hola sociedad deberían tener voz en su diseño y despliegue.

https://revistaidees.cat/en/thinking-about-ethics-in-the-ethics-of-ai/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Mejor comprensión de la IA

Artículo de Nesta sobre IA, las preocupaciones éticas, los centros que investigan y proponen medidas para resolverlas. Un informe detallado y completo escrito por Julián García-Mateos.

https://www.nesta.org.uk/blog/better-intelligence-about-artificial-intelligence/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Contribución de la OCDE al una IA centrada en el ser humano

La «gestión mediante algoritmo» ya es una realidad en el espacio laboral, lo que puede conducir a prácticas muy intrusivas. El software y hardware permiten crear herramientas de control del desempeño laboral mediante la monitorización de maneras impensables en el pasado, así como recoger enormes cantidades de datos de su actividad, (Elevtronic Performance Monitoring – EPM)permitiendo que un empleado de bajo rendimiento pueda ser despedido automáticamente sin verificación del supervisor.

Formas incrementadas de control de trabajadores de fábricas y de oficina incluyen la monitorización de emails, escucha telefónica, seguimiento del contenido del ordenador y tiempo de uso, monitorización por vídeo y seguimiento GPS. Con esto se realiza «People Analytics».

EPM y Personal Analytics pueden ser usados legítimamente para fomentar la productividad o elevar la seguridad. Los dispositivos wearables pueden usarse para mejorar la salud, pero pueden usarse para una grave intrusión de la vida privada violando la privacidad.

Además,la idea de que la IA llevará a prácticas médicas más objetivas y libre de sesgos puede ser sustancialmente errónea. Mucha literatura describe cómo estos algoritmos pueden perpetuar prácticas discriminatorias y  la marginalización de grupos vulnerables, especialmente cuando la recogida de datos es pobre. Los mecanismos de auto aprendizaje  en los que el software elige sus propios criterios puede resultar incluso peor. La falta de transparencia y el riesgo de deshumanizar del trabajo se exacerbaría.

La guía de la OCDE pide a los Gobiernos que «tomen medidas, incluso con el diálogo social, para asegurar una transición limpia para los trabajadores al desplegar la IA» y «trabajen con los interesados para promover el uso responsable de la IA en el trabajo y para mejorar la seguridad de los empleados y la calidad de los empleos.

Se requiere regulación para gobernar los datos recogidos sobre el desempeño en el trabajo, las características personales de los trabajadores así como cómo son recogidos y tratados, así como prohibir los controles intrusivos. Cualquier decisión que afecte a los trabajadores deberían tomarse bajo supervisión humana.

En 2017 la UE abogaba por un enfoque de la IA con «humano al mando». El despliegue de la IA debe ser responsable, seguro y útil donde las máquinas sigan siendo máquinas y las personas sigan controlando las máquinas. Este enfoque se debe seguir estrictamente en lo referente al trabajo. El derecho a no estar sujeto a toma de decisiones automatizada sin intervención humana se abre paso en la regulación supranacional. Los individuos no deberían quedar solos al lidiar con los intríngulis de estas tecnologías cuando quieran comprender y oponerse a sus consecuencias y aplicaciones.

Los Gobiernos tienen un papel esencial que jugar en la regulación. Por ejemplo se pueden usar incentivos fiscales. Es necesario que los trabajadores, los sindicatos y los directivos estén adecuadamente formados en los retos y oportunidades de esta tecnología.

https://poseidon01.ssrn.com/delivery.php?ID=622087009029070101099011072022002024022042010014033020088068074077091106091083109005011118030002007113008089081006076102118083001006043079004112097024114093068113104019076008081002086014064113072117121028104105093100120127095066123113007029093115096020&EXT=pdf

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Engañando con IA: Cuando la IA aprende a mentir

En IA se utilizan los ejemplos adversarios para hacer más robustos los modelos.
Es necesario comprender la amplitud de qué significa «Engaño de IA» y lo que ocurre cuando no está la intención humana tras una IA mentirosa.
Bond y Robinson definenel engañocomo «la falsa comunicación en beneficio del comunicador». Whaley incluye la intención demanipularal otro.
Tener intención significa tener conocimiento de uno mismo y poder razonar sobre entidades externas y sus intenciones, deseos, estados y posibles comportamientos. Si se define engaño de la IA con una intención definida así, requeriría una IA con cierta teoría de la mente,lo que no existe, así que vamos a tratar el engaño apoyado en la intención humana de usar la IA para engañar.
Que la IA no tenga una teoría de la mente no significa que no pueda aprender a engañar, aunque en realidad no sepan lo que hacen. Es tan fácil como ocultar información o suministrar informaciónfalsa para lograr un objetivo.
Se puede describir dos tipos deengaños:
  1. actos de comisión, donde p.e. un agente envía información incorrecta
  2. actos de omisión, donde un agente es pasivo y retiene información o la oculta
En ciberdefensa puede aprender a señalizar distintas formas de desinformación o como un enjambre de dispositivos IA pueden aprender comportamientos engañosos en el campo de batalla para eludir la detección del enemigo. Un ejemplo más común sería un asistente inteligente de impuestos malo podría omitir ingresos para minimizar el pago de impuestos.
El primer paso para defenderse de los engaños es reconocer que ya engañan, y que seguirán engañando. Cómo ocurre, si es un rasgo deseable, y si podemos detectarlo cuando ocurra .
Luego habrá que empezar a diseñar nuevas soluciones para detectar y mitigar engaños no deseados de agentes inteligentes. 
Actualmente hay montones de retos de engaños y van a aumentar conforme aumenten las capacidades cognitivas. Conforme la IA aumente en su capacidad de sentir, creer, detectar emociones, influir en acciones y emociones… las posibilidades de engaño serán mayores.
Antes de que la situación empeore debería pensarse en soluciones políticas,legales, técnicas y éticas. Una mejor comprensión de la situación permitirá analizar mejor posibles respuestas a engaños y empezar a diseñar sistemas inteligentes para la verdad.
https://spectrum.ieee.org/automaton/artificial-intelligence/embedded-ai/ai-deception-when-your-ai-learns-to-lie

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Curso sobre robots en la sociedad

Este curso trata de la integración de los robots en la sociedad y los peligros éticos que suscita,

https://www.edx.org/course/mind-of-the-universe-robots-in-society-blessing-or?utm_campaign=social-sharing-course-page&utm_medium=social&utm_source=twitter

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El peligro que supone la IA para la civilización

Se utiliza para cosas no esenciales La «inteligencia» de la IA supone un problema para la civilización. Se suele usar para cosas no esenciales, a veces egoístas. Incluso Google Maps, aunque útil, signigica que soy rastreado por mi teléfono al usarla.

La IA realmente no trabaja para el usuario. Siempre que se usa IA es a cambio de la privacidad. Que el teléfono aprenda cómo me comporto y se adelante me hace sentirme niño. Facebook etiqueta las fotos que subo sin que se lo haya pedido. ¿Me beneficia? Es poner muy bajo el listón del beneficio. El problema es el coste: un incremento en dependencia externa que básicamente nos infantiliza. la IA no está empoderando a nadie,excepto a los gobiernos y otras organizaciones que se benefician de rastrear los movimiento, aplicar las normas y tratar a las personas como meros datos.

Es interesante que cuando se automatizan cosas para objetivos no frívolos no solemos llamarlo IA. Por ejemplo los sistemas de pilotaje automático de las modernas naves Airbus son en esencia sistema ID que toman el control de los pilotos. Es una gran historia para los entusiastas de la IA, pero no se habla de ello porque no hay un mercado que se beneficie de ello. La gente no quiere oir hablar de que el MCAT está pilotado, quieren saber que el piloto controla la situación. Así que de pronto deja de ser IA, es solamente un montón de dispositivos electrónicos. Pero no hay una diferencia sustancial entre esos sistemas de aviónica y la IA de consumo, excepto que los efectos infantilizantes solo los experientan los pilotos.

¿El principal problema? No es la infantilización como tal, es el hecho de que transferimos asimétricamente poder a los propietarios de los sistemas, no a los usuarios. Los modernos sistemas de IA requieren masivas cantidades de datos. Quien los posea, también reclama la IA. Así, extrañamente, la visión Orwelliana se está convirtiendo en la historia moderna.

El problema no es que la legislación o los observadores sean suficientemente activos, el problema es que la tecnología actual sirve a los propietarios de los servidores y de big data y solo secundariamente a los usuarios. Además, la IA está dirifiendo la asimetría del poder. Hay una gran cuestión: cómo podemos disfrutar de una tecnología poderosa sin ser la herramienta de otro.

Si dispongo de una app con IA incorporada construida por mí o por un amigo a a la que nadie tiene acceso para controlarla, no será muy útil o potente. Si descargo la que ha diseñado Microsoft o Google, probablemente funcione bien, pero ellos tienen la sartén por el mango. La raón es que la app usa mis datos y una enorme cantidad de los comportamientos analizados de otras personas. Me beneficio de otros pero pierdo el control de mis datos.

No tenemos aún modelos no ligados a big data. Así que el control lo tienen los gigantes tecnológicos.

Quizás si se eliminara el adjetivo «inteligente» y se llamase simplemente algoritmos estadísticos aplicados a nuestros datos, los aspectos más tontos se eliminaría.

Los modelos actuales requieren presupuestos crecientes de forma insostenible. No obstante, el modelo actual puede lleguar a ser culturalmente corrosivo.

https://mindmatters.ai/2020/02/the-danger-ai-poses-for-civilization/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La inteligencia artificial ya puede crear vídeos inventados a partir de audios

La herramienta creada por SenseTime, el gigante tecnológico de Hong Kong, detecta emociones en el audio y las asocia a expresiones faciales que representa en un vídeo.

https://retina.elpais.com/retina/2020/01/22/innovacion/1579693307_555687.html

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar