Qué sifnifica para las personas el Futuro de la Inteligencia Artificial

Ensayo sobre la interacción hombre-máquina.

Durante milenios, las capacidades para razonar, procesar un lenguaje complejo, pensar de manera abstracta y contemplar el futuro se consideraron exclusivamente humanas. Ahora, la inteligencia artificial está preparada para trascender nuestro dominio en todos estos ámbitos. De repente, no somos tan especiales.
«Tal vez resulta que no somos los más racionales o los mejores tomadores de decisiones», dice Gratch. «Tal vez, de una manera extraña, la tecnología nos está enseñando que no es tan importante. Realmente se trata de la emoción y las conexiones entre las personas, lo cual no es algo malo para enfatizar «.
Thompson sugiere que otro dilema radica en la tendencia de los humanos a definirse por lo que no somos. No somos, por ejemplo, caracoles, fantasmas o máquinas. Ahora, esta línea también parece estar borrosa.
«Las personas pueden relacionarse más fácilmente con un androide racional e interactivo que con una especie diferente como un caracol», dice. “Pero, ¿cuál es realmente más parte de ti? Siempre estaremos más relacionados biológicamente con un caracol «.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Robots sociales y empatía: los efectos nocivos de obtener siempre lo que queremos

Como estamos perdiendo nuestra capacidad de empatizar con los humanos debido a su complejidad, nos volveremos cada vez más hacia robots sociales que son adaptado a todos nuestros deseos de compañía. Esto solo acentuará aún más el declive de nuestro empatía por otros seres humanos y permitir que se asiente el asco moral, especialmente hacia individuos que consideramos diferentes de nosotros. Porque el asco subyace a la deshumanización, el asco moral  hacia nuestros semejantes nos llevará a deshumanizarlos, es decir, a renunciar al tratamiento de la manera respetuosa y empática que esperaríamos que uno tratara a un ser humano: ya que esto es algo que reservaremos para los robots sociales que no están en desacuerdo con nosotros o actúan de manera eso no nos conviene. Por lo tanto, el fallo fatal de los humanos habrá sido que son demasiado humanos,demasiado distintos para el mundo cada vez más egocéntrico y digital en el que vivimos ahora.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Cuando la mejor IA no es necesariamente la mejor IA

El artículo presenta el modelo de Susan Athey, para consideración de las organizaciones al usar la IA.

Plantea cuatro escenarios:
  • Si un sistema de IA funciona perfectamente todo el tiempo, puede reemplazar al humano. Pero hay inconvenientes. Además de tomar el trabajo de una persona, la IA de reemplazo tiene que estar extremadamente bien entrenada, lo que puede implicar una inversión prohibitivamente costosa en datos de capacitación. 
  • Cuando la IA es imperfecta o «poco confiable», los humanos juegan un papel clave en la captura y corrección de los errores de la IA, compensando parcialmente las imperfecciones de la IA con un mayor esfuerzo. Es muy probable que este escenario produzca resultados óptimos cuando la IA alcanza el punto óptimo donde toma malas decisiones con la frecuencia suficiente para mantener a los compañeros de trabajo humanos alerta.
  • Con la IA de aumento, los empleados conservan el poder de decisión mientras que una IA de alta calidad aumenta su esfuerzo sin diezmar su motivación. Los ejemplos de IA aumentativa pueden incluir sistemas que, de manera imparcial, revisan y clasifican las solicitudes de préstamos o solicitudes de empleo, pero no toman decisiones de préstamo o contratación. Sin embargo, los prejuicios humanos tendrán una mayor influencia en las decisiones en este escenario.
  • La IA antagónica es quizás la clasificación menos intuitiva. Surge en situaciones donde hay una IA imperfecta pero valiosa, el esfuerzo humano es esencial pero poco incentivado, y el humano retiene los derechos de decisión cuando el humano y la IA entran en conflicto. En tales casos, propone el modelo de Athey, el mejor diseño de IA podría ser uno que produzca resultados que entren en conflicto con las preferencias de los agentes humanos, motivándolos de manera antagónica a esforzarse para que puedan influir en las decisiones. «Las personas van a estar, al margen, más motivadas si no están tan contentas con el resultado cuando no prestan atención», dice Athey.
Para aclarar el valor del modelo de Athey, ella describe los posibles problemas de diseño, así como las compensaciones por el esfuerzo de los trabajadores cuando las empresas usan IA para abordar el problema del sesgo en la contratación. El escenario funciona así: si la contratación de gerentes, consciente o no, prefiere contratar a personas que se parezcan a ellos, una IA capacitada con datos de contratación de dichos gerentes probablemente aprenderá a imitar ese sesgo (y mantener felices a esos gerentes). Si la organización quiere reducir el sesgo, puede que tenga que hacer un esfuerzo para expandir los datos de entrenamiento de IA o incluso realizar experimentos, por ejemplo, agregar candidatos de colegios y universidades históricamente negros que podrían no haber sido considerados antes, para recopilar los datos necesarios para entrenar un sistema de IA imparcial. Luego, si los gerentes sesgados aún están a cargo de la toma de decisiones, la nueva IA imparcial podría motivarlos antagónicamente a leer todas las aplicaciones para que puedan defender la contratación de la persona que se parece a ellos. Pero dado que esto no ayuda al propietario a lograr el objetivo de eliminar el sesgo en la contratación, otra opción es diseñar la organización para que la IA pueda anular al administrador, lo que tendrá otra consecuencia no deseada: un administrador desmotivado.
«Estos son los compromisos que intenta aclarar», dice Athey. «La IA en principio puede resolver algunos de estos prejuicios, pero si quieres que funcione bien, debes tener cuidado sobre cómo entrenas a la IA y cómo mantienes la motivación para el humano».
A medida que la IA se adopte en más y más contextos, cambiará la forma en que funcionan las organizaciones. Las empresas y otras organizaciones necesitarán pensar de manera diferente sobre el diseño organizacional, los incentivos para los trabajadores, qué tan bien las decisiones de los trabajadores y la IA están alineadas con los objetivos de la empresa, y si una inversión en datos de capacitación para mejorar la calidad de la IA tendrá consecuencias deseables, Athey dice. «Los modelos teóricos pueden ayudar a las organizaciones a pensar en las interacciones entre todas estas opciones».
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La inteligencia artificial está experimentando dolores de crecimiento

Mover la IA de casos de uso restringidos a implementaciones más amplias es «trabajo duro», dice Chui, «no solo porque los problemas tecnológicos son difíciles sino también porque la gestión del cambio es realmente difícil. Hay una razón por la cual esto no sucede más rápido «.

Parte del desafío es encontrar requisitos comerciales que puedan satisfacerse mediante el uso de inteligencia artificial, recordando el viejo adagio de una solución en busca de un problema. Muchas de las tecnologías emergentes en torno a la IA son fascinantes, pero aún no está claro cómo las empresas pueden capitalizar estas tecnologías. «Por ejemplo, el aprendizaje por refuerzo es terriblemente bueno para poder entrenar máquinas para jugar todo tipo de juegos mejor, pero no es tan obvio cuánto valor puede crear en el mundo», dice Chui.
El informe del MIT Sloan señala que la IA requerirá un mayor enfoque en la gestión de riesgos y la ética. La encuesta «muestra una amplia conciencia de los riesgos inherentes al uso de IA, pero pocos profesionales han tomado medidas para crear políticas y procesos para gestionar los riesgos, incluidos los riesgos éticos, legales, reputacionales y financieros».
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Formando equipo con la IA

Crear una buena experiencia de usuario de inteligencia artificial (IA) no es fácil. Todos los que usan autocorrección mientras escriben saben que, si bien el sistema generalmente hace un buen trabajo al actuar y corregir errores, a veces comete errores extraños. Lo mismo es cierto para el piloto automático en un Tesla, pero desafortunadamente las apuestas son mucho más altas en el camino que cuando se está sentado detrás de una computadora.

Entrevista con Bernie Molls sobre los retos de construir equipos híbridos.
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo Eslovenia es líder mundial en IA centrada en el ser humano

Eslovenia es una potencia mundial en IA, a pesar de ser un país de os millones de habitantes. En los 1950 se fundó el Jozef Stefan Institute (JSI) para investigación científica. En los 1970 Eslovenia fue gran defensora de la IA e hizo grandes inversiones en tecnología precursoras como redes neuronales, modelado de datos y análisis estadístico. Eslovenia se ha convertido en un faro académico de la IA.

A principios de 2020 Eslovenia extendió el JSI con el  International Research Center on Artificial Intelligence (IRCAI).

El artículo describe los tres primeros casos de uso del IRCAI:

  1. Liberación del modelo «gemelo digital» de Social Awareness to Augment Decision Making. Es una de las herramientas más avanzadas en diversas aplicaciones, entre ellas la pandemia del coronavirus
  2. Impulso de Soluciones el Coronaviris mediante Nuevas Capacidades de Visualización analítica
  3. Defensa de la conciencia situacional para el monitoreo global y los sistemas predictivos
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

IA Responsable, Microsoft

Esta entrada de blog de Microsoft es una colección de recursos sobre los temas críticos para una IA rsponsable:

  • Fairness
  • Transparencia
  • Reliability Safety
  • Colaboración entre humanos e IA
  • Privacidad

Para cada uno de los temas aporta una definición y enlaces a recursos relevantes sobre el tema

https://www.microsoft.com/en-us/research/blog/research-collection-responsible-ai/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Derechos de los robots? Hablemos mejor de Bienestar Humano

El debate sobre los «derechos de los robots», y su pregunta relacionada con la «responsabilidad de los robots», invoca algunas de las posiciones más polarizadas en la ética de la inteligencia artificial.
Mientras que algunos abogan por otorgar derechos de robots a la par de los seres humanos, otros, en una clara oposición, argumentan que los robots son
no merece derechos pero son objetos que deberían ser nuestros esclavos.
Basado en fundamentos filosóficos post-cartesianos, argumentamos
no solo para negar los «derechos» de los robots, sino también para negar que los robots, como artefactos que emergen y median en el ser humano, son los tipos
de cosas a las que se les pueden otorgar derechos en primer lugar. Una vez que nosotros
vemos a los robots como mediadores del ser humano, podemos entender cómo
El debate sobre los «derechos de los robots» se centra en los problemas del primer mundo, en el
gasto de preocupaciones éticas urgentes, como sesgo de máquina, máquina
provocó la explotación laboral humana y la erosión de la privacidad, todo impactando a los individuos menos privilegiados de la sociedad. Concluimos que si
El ser humano es nuestro punto de partida y el bienestar humano es la principal preocupación, los impactos negativos que surgen de los sistemas maquínicos, así como la falta de responsabilidad por parte de las personas que diseñan, venden e implementan tales máquinas, sigue siendo la discusión ética más apremiante en la IA.

https://arxiv.org/abs/2001.05046v1

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar