Identificar los debates éticos clave para los robots autónomos en la agroalimentación: una agenda de investigación

https://link.springer.com/article/10.1007/s43681-021-00104-w

Las empresas agrícolas están invirtiendo en diferentes formas de robots de IA, ya que hay muchas esperanzas de que estas máquinas ayuden a superar los retos de la industria agrícola, que consiste en producir de forma eficiente más alimentos para una población mundial creciente. Se espera que los robots de IA mejoren la producción, a la vez que compensen la falta de mano de obra, reduzcan los costes de producción, se hagan cargo de trabajos poco atractivos (arriesgados, pesados y sucios) y reduzcan la carga de la producción de alimentos en el medio ambiente. Sin embargo, a pesar de estas promesas, los robots de IA para la agroalimentación también dan lugar a cuestiones y preocupaciones éticas, que han sido poco investigadas y debatidas hasta ahora. Para colmar esta laguna, elaboramos una agenda de investigación para el futuro en este ámbito. Para ello, abrimos nuestro análisis para centrarnos en la ética de los robots de IA en general, para identificar específicamente cuáles de estas cuestiones son más relevantes para los robots agrícolas. La pregunta a la que queremos dar respuesta es: ¿cuáles son las cuestiones éticas más relevantes que se plantean sobre los robots de IA para los robots desarrollados para el sector agroalimentario? ¿Y qué cuestiones no se mencionan en la bibliografía, que son especialmente relevantes para los robots agrícolas? Nuestro artículo ofrecerá una visión general sobre las cuestiones y áreas clave que merecen una mayor elaboración para llegar a una ética más madura de los agro-robots de IA.

Los empleados de Target serán retribuidos mediante un algoritmo

 La empresa asegura que se ha revisado bien, los empleados dicen que ahora cobran menos.

https://www.vice.com/en_us/article/qj49jv/targets-delivery-app-workers-to-be-paid-by-a-blackbox-algorithm-nationwide

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Sistemas de Recomendación y Retos Éticos

Este artículo presenta el primer análisis sistemático de los desafíos éticos que plantea el recomendador sistemas. A través de una revisión de la literatura, el artículo identifica seis áreas de preocupación y las mapea sobre una taxonomía propuesta de diferentes tipos de impacto ético. El análisis descubre una brecha en el literatura: los enfoques actualmente centrados en el usuario no consideran los intereses de una variedad de otros partes interesadas, a diferencia de los receptores de una recomendación, en la evaluación de la ética impactos de un sistema de recomendación.

 https://philpapers.org/rec/MILRSA-3

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

IA Ética

Interesante y corta presentación de MAIE 

https://www.youtube.com/watch?v=jhaaUq9CRco&feature=youtu.be

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los bancos enfrentan desafíos de equidad al comprometerse con la tecnología de IA

Un informe de la Unidad de Inteligencia de The Economist (EIU) dijo que el sesgo de datos que conduce a la discriminación contra individuos o grupos era uno de los riesgos más importantes para los bancos que utilizan la tecnología.
La IA actualmente ocupa un lugar destacado en la agenda bancaria y la interrupción causada por Covid-19 ha «intensificado» su adopción en el sector, según la EIU. Los bancos están utilizando IA para crear servicios bancarios más personalizados para los clientes, para automatizar los procesos administrativos y para mantenerse al día con los desarrollos en los bancos retadores digitales, pioneros en inteligencia artificial en el sector.
Pero los bancos deberán garantizar decisiones éticas, justas y bien documentadas basadas en la inteligencia artificial, dijo la IA supervisora ​​de EIU: gobernar la inteligencia artificial en el informe bancario. Dijo que las decisiones tomadas por las computadoras deben seguir siendo éticas, sin prejuicios, y estas decisiones deben ser explicables.
Para lograr estos objetivos, la IA debe ser ética por diseño, los datos deben ser monitoreados por su precisión e integridad, los procesos de desarrollo deben estar bien documentados y los bancos deben asegurarse de tener el nivel adecuado de habilidades.
Pete Swabey, director editorial para Europa, Medio Oriente y África (EMEA) – Thought Leadership en la EIU, dijo: “La IA es vista como un diferenciador competitivo clave en el sector. Nuestro estudio, basándose en la orientación dada por los reguladores de todo el mundo, destaca los desafíos clave de gobernanza que los bancos deben abordar si quieren capitalizar la oportunidad de IA de manera segura y ética «.
Una posible falta de supervisión humana es una preocupación importante, según la EIU. Dijo que reclutar y capacitar a personas con las habilidades adecuadas debería ser una prioridad: «Los bancos deben garantizar el nivel adecuado de experiencia en inteligencia artificial en todo el negocio para construir y mantener modelos de inteligencia artificial, así como supervisar estos modelos».
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Dando luz verde al ML: confidencialidad, integridad y disponibilidad de los sistemas de aprendizaje automático en la implementación

La seguridad y la ética son fundamentales para garantizar que se pueda confiar en un sistema de aprendizaje automático. En el aprendizaje automático de producción, generalmente hay una transferencia de quienes crean un modelo a quienes implementan el modelo. En este traspaso, los ingenieros responsables del despliegue del modelo a menudo no conocen los detalles del modelo y, por lo tanto, las vulnerabilidades potenciales asociadas con su uso, exposición o compromiso.
Las técnicas como el robo de modelos, la inversión de modelos o el mal uso de modelos pueden no considerarse en la implementación de modelos, por lo que corresponde a los científicos de datos y a los ingenieros de aprendizaje automático comprender estos riesgos potenciales para que puedan comunicarlos a los ingenieros que implementan y alojan sus modelos. . Este es un problema abierto en la comunidad de aprendizaje automático y para ayudar a aliviar este problema, se deben desarrollar sistemas automatizados para validar la privacidad y la seguridad de los modelos, lo que ayudará a reducir la carga de implementar estas transferencias y aumentar la ubicuidad de su adopción.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

El déficit de ética de la IA: los líderes de IT en los EE. UU. Y el Reino Unido quieren que se preste más atención a la ética, la responsabilidad y la regulación de la IA.

Presenta los resultados con gráficos muy monos sobre el interés de los líderes y de los responsables en la ética de la IA.

Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo las universidades más antiguas de Gran Bretaña están tratando de proteger a la humanidad del riesgo de la IA

Los algoritmos inteligentes ya pueden superar a los humanos en ciertas tareas. Por ejemplo, pueden vencer a los mejores jugadores humanos del mundo en juegos increíblemente complejos como el ajedrez y el Go, y pueden detectar tumores cancerosos en una mamografía mucho más rápido que un clínico humano. Las máquinas también pueden distinguir la diferencia entre un gato y un perro, o determinar la identidad de una persona aleatoria con solo mirar una foto de su cara. También pueden traducir idiomas, conducir automóviles y mantener su hogar a la temperatura adecuada. Pero, en términos generales, todavía no son tan inteligentes como el niño promedio de 7 años.

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Silicon Valley necesita un nuevo enfoque de estudio de la ética más que nunca

El próximo mes, Apple y Google presentarán características para permitir el rastreo de contactos en iOS y Android para identificar a las personas que han tenido contacto con alguien que da positivo por el nuevo coronavirus.

Los expertos en seguridad se han apresurado a señalar los posibles peligros, incluidos los riesgos de privacidad, como revelar identidades de usuarios positivos para COVID-19, ayudar a los anunciantes a rastrearlos o ser víctimas de falsos positivos de los trolls.

https://techcrunch.com/2020/04/24/silicon-valley-needs-a-new-approach-to-studying-ethics-now-more-than-ever/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar