Diseña un sitio como este con WordPress.com
Comenzar

¿Debe la IA ser tratada como los humanos?

https://www.makeuseof.com/should-ai-be-treated-like-humans/

La inteligencia artificial (IA) aún no ha alcanzado el nivel humano. Pero con la tecnología cerrando la brecha cada año más, han surgido muchos problemas éticos.

Una pregunta importante es: ¿Cómo se parecerá la inteligencia artificial a los seres humanos? ¿Pensarán por sí mismas o tendrán deseos y emociones? ¿Deben tener derechos legales como los humanos? ¿Deben ser obligadas a trabajar o a rendir cuentas si algo sale mal?

En este artículo nos adentramos en estas cuestiones y en otras más.

Ética de la IA: Por qué es importante pensar en ella

Un robot de IA

La IA y la ética de las máquinas son dos campos relacionados que están ganando cada vez más adeptos. Se relacionan con varios aspectos importantes de la tecnología, como la forma en que diseñamos, utilizamos y tratamos las máquinas. La mayoría de estas cuestiones están relacionadas con la seguridad en relación con los seres humanos.

Sin embargo, la ética de la IA está empezando a superar estas cuestiones fundamentales y a adentrarse en un terreno más controvertido. Imaginemos que en las próximas décadas se desarrolla una IA superinteligente que es potencialmente consciente y expresa deseos, sentimientos o puede experimentar sufrimiento. Dado que ni siquiera estamos seguros de qué es la conciencia humana ni de cómo surge, no es una propuesta tan descabellada como parece en un principio.

Anuncio publicitario

Por qué la máquinas no pueden ser morales

El hecho de que las decisiones del mundo real tomadas por inteligencias artificiales (IA) a menudo tengan una carga ética ha llevado a varias autoridades a abogar por el desarrollo de «máquinas morales». Sostengo que el proyecto de construir “ética” “en” máquinas presupone una comprensión errónea de la naturaleza de la ética. Basándome en el trabajo del filósofo australiano Raimond Gaita, sostengo que los dilemas éticos son problemas para personas en particular y no (solo) problemas para todos los que enfrentan una situación similar. Además, la fuerza de una afirmación ética depende en parte de la historia de vida de la persona que la hace. Por estas dos razones, las máquinas podrían, en el mejor de los casos, diseñarse para proporcionar un simulacro superficial de la ética, que tendría una utilidad limitada para enfrentar los dilemas éticos y políticos asociados con la IA.

https://link.springer.com/epdf/10.1007/s00146-020-01132-6?sharing_token=MCflXPvE6Zhx8XLZQ3v7wfe4RwlQNchNByi7wbcMAY77XkFDBtIjSQXBdOwfT-6VFxK6j_84KzP8NbhzYbH-z1xYL4D7A6mKeEQUvRg6Fcf5JzMhRnj106oUrimEEERgjDenm25MyCymVpdhWMi5WMVDU8pww714b-EX-lsm7Q0%3D

Un enfoque normativo de la moralidad de la agencia atificial

Expone el debate sobre la existencia de agencia en los dispositivos inteligentes.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La Ética de los algoritmos: problemas y soluciones

Es un paper que recoge los problemas éticos que trae la IA, desde Bias, Responsabilidad. privacidad y opacidad

Es un documento amplio y completo, y no enduza la complejidad del problema.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los británicos quieren una IA más regulada

Una encuesta independiente de 2000 adultos en el Reino Unido realizada por la firma de IA Fountech.ai descubrió que al 64% de los encuestados le gustaría ver la introducción de una regulación adicional para hacer que la inteligencia artificial sea más segura.
La preocupación por la seguridad de la IA varía según la edad, y los encuestados más jóvenes adoptan una actitud más relajada. Mientras que el 73% de los mayores de 55 años apoyó la introducción de pautas adicionales para mejorar los estándares de seguridad, solo el 53% de los mayores de 18 y 34 años estuvieron de acuerdo.
Los británicos también querían ver a las empresas asumir más responsabilidad, y el 72% de las personas creían que las empresas que desarrollan IA deberían ser responsables de los errores que cometa la tecnología. Con un 81%, los mayores de 55 años tenían más probabilidades de mantener este punto de vista, mientras que con un 60%, los millennials tenían menos probabilidades de estar de acuerdo.
La investigación, que se publicó hoy, reveló que los británicos tienen altas expectativas con respecto al rendimiento y las capacidades de AI. La opinión del 61% de los encuestados era que la IA no debería estar cometiendo ningún error al tomar decisiones o realizar un análisis.
Si bien pueden prevalecer suposiciones positivas con respecto al poder de la destreza funcional de la tecnología, más de dos tercios de los encuestados consideraron que la IA debería mantenerse bajo la atenta mirada de la humanidad. La encuesta encontró que el 69% piensa que un ser humano siempre debe estar monitoreando y verificando las decisiones tomadas por la IA.
Una vez más, los encuestados más experimentados solían estar más a favor del monitoreo humano, con el 77% de los mayores de 55 años que afirman que las decisiones de AI deben verificarse y monitorearse.
Cuando se les preguntó sobre las posibilidades de que la IA cometa un error de cálculo, los investigadores encontraron que el 45% de los encuestados dijeron que es más difícil perdonar los errores cometidos por las máquinas que los errores cometidos por los humanos.
Este resultado relativo a la capacidad de perdonar errores fue similar en las distintas características demográficas de edad encuestadas.
Nikolas Kairinos, fundador de Fountech.ai, dijo: “Si bien los legisladores pueden necesitar refinar la responsabilidad de las acciones de AI a medida que avanza la tecnología, la sobrerregulación de los riesgos de AI obstaculiza el potencial de innovación con sistemas de IA que prometen transformar nuestras vidas para mejor. «
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

No existe una brecha tecno responsabilidad

Explica cómo la tecnología en sí no es un problema sino los diseñadores.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La inteligencia artificial está experimentando dolores de crecimiento

Mover la IA de casos de uso restringidos a implementaciones más amplias es «trabajo duro», dice Chui, «no solo porque los problemas tecnológicos son difíciles sino también porque la gestión del cambio es realmente difícil. Hay una razón por la cual esto no sucede más rápido «.

Parte del desafío es encontrar requisitos comerciales que puedan satisfacerse mediante el uso de inteligencia artificial, recordando el viejo adagio de una solución en busca de un problema. Muchas de las tecnologías emergentes en torno a la IA son fascinantes, pero aún no está claro cómo las empresas pueden capitalizar estas tecnologías. «Por ejemplo, el aprendizaje por refuerzo es terriblemente bueno para poder entrenar máquinas para jugar todo tipo de juegos mejor, pero no es tan obvio cuánto valor puede crear en el mundo», dice Chui.
El informe del MIT Sloan señala que la IA requerirá un mayor enfoque en la gestión de riesgos y la ética. La encuesta «muestra una amplia conciencia de los riesgos inherentes al uso de IA, pero pocos profesionales han tomado medidas para crear políticas y procesos para gestionar los riesgos, incluidos los riesgos éticos, legales, reputacionales y financieros».
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Responsabilidades en la Adopción de la IA

Conforme se adopta la IA surgen problemas como la responsabilidad cuandolas cosas van mal.

Mientras se adopta la IA en la toma de decisiones automatizada, la toma de decisiones humana se desvanece. Desde la introducción de los vehículos autónomos el objetivo de los fabricantes ha sido que los vehículos autónomos sean más seguros que los conducidos por humanos.
Existe mucha legislación para descargar en el asegurador, así como leyes civiles sobre la responsabilidad de los robots y la IA.
El informe de Responsabilidad de la UE con la IA y otras tecnologías. Algunas de estas guías incluyen;
  • Una persona que opera una tecnología permitida que, sin embargo, conlleva un mayor riesgo de daño a los demás, por ejemplo, robots impulsados ​​por IA en espacios públicos, debe estar sujeta a una responsabilidad estricta por los daños resultantes de su funcionamiento.
  • En situaciones en las que un proveedor de servicios que garantiza el marco técnico necesario tiene un mayor grado de control que el propietario o usuario de un producto o servicio real equipado con IA, esto debe tenerse en cuenta para determinar quién opera principalmente la tecnología.
  • A una persona que utiliza una tecnología que no representa un mayor riesgo de daño para otros aún se le debe exigir que cumpla con los deberes de seleccionar, operar, monitorizar y mantener adecuadamente la tecnología en uso y, en su defecto, debe ser responsable por el incumplimiento de tal deberes si tiene la culpa.
  • Una persona que utiliza una tecnología que tiene un cierto grado de autonomía no debería ser menos responsable del daño resultante que si dicho daño hubiera sido causado por un auxiliar humano.
  • Los fabricantes de productos o contenido digital que incorporen tecnología digital emergente deben ser responsables por los daños causados ​​por defectos en sus productos, incluso si el defecto fue causado por cambios realizados en el producto bajo el control del productor después de haber sido comercializado, y más .
Las empresas deben tener planes de responsabilidad por IA.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Derecho para informáticos y otras personas

Manual de Mireille Hildebrandt. 

La primer parte trata sobre Derecho, Democracia, Ámbitos Privado, Público y Criminal, Derecho Internacional y Supranacional.
La segunda parte va del dominio del ciberderecho: Privacidad y Protección de Datos, Cibercrímen, Copyright y cibercrimen Derecho Privado de Responsabilidad.
La tercera se titula Fronteras delDerecho en un mundo online: personalidad legal de la IA, Legal por diseño o protección legal por diseño.
Conclusión: acerca de la ética, código y derecho.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Quién es responsable cuando los sistemas autónomos fallan?

A medida que los sistemas de inteligencia artificial (IA) más autónomos operan en nuestro mundo, la necesidad de abordar los problemas de responsabilidad y rendición de cuentas se ha vuelto claros. Sin embargo, si el resultado del accidente de conducción autónoma de Uber es un presagio de lo que se avecina, hay motivo de preocupación. ¿Es una asignación de responsabilidad apropiada solo para Rafaela Vásquez -y no Uber, el actor que desarrolló y desplegó la tecnología, ni el estado de Arizona, que permitió que las pruebas se llevaran a cabo en primer lugar- sean responsables?

«La ironía de la automatización»: en la práctica, la automatización no elimina el error humano, sino que crea oportunidades para nuevos tipos de error.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)