Diseña un sitio como este con WordPress.com
Comenzar

¿Es la IA una fuerza para el bien? Entrevista con Branka Panic, fundadora y directora ejecutiva de AI For Peace

 Cada vez más, las organizaciones de muchas industrias y geografías están construyendo e implementando modelos de aprendizaje automático e incorporando inteligencia artificial en una variedad de sus diferentes productos y ofertas. Sin embargo, a medida que colocan capacidades de inteligencia artificial en los sistemas con los que interactuamos a diario, es cada vez más importante asegurarse de que estos sistemas se comporten de manera beneficiosa para el público. Al crear sistemas de IA, las organizaciones también deben considerar las implicaciones éticas y morales para asegurarse de que la IA se crea con buenas intenciones.

Los formuladores de políticas que quieran comprender y aprovechar el potencial y el impacto de la IA deben adoptar una visión holística de los problemas. Esto incluye cosas como las intenciones detrás de los sistemas de IA, así como las posibles consecuencias y acciones no deseadas de los sistemas de IA. Este puede ser especialmente el caso de las aplicaciones militares.

Un informe publicado por el AI Now Institute de la Universidad de Nueva York en diciembre de 2019 muestra que la «gran mayoría» de las declaraciones de ética de la IA dicen «muy poco sobre la implementación, la responsabilidad o cómo se mediría y aplicaría dicha ética en la práctica».

https://www-forbes-com.cdn.ampproject.org/c/s/www.forbes.com/sites/cognitiveworld/2020/08/23/is-ai-a-force-for-good-interview-with-branka-panic-founder-and-executive-director-at-ai-for-peace/amp/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Anuncio publicitario

Rendición de cuentas y control sobre los sistemas de armas autónomos: un marco para la supervisión humana integral

Es un paper sobre la rendición de cuentas del diseño y resultados del uso de armas autónomas.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La pregunta del millón de dólares del Pentágono: ¿Puede la IA predecir las emociones de un enemigo?

El brazo de investigación del Pentágono ha invertido $ 1 millón en un contrato para construir una herramienta de IA destinada a decodificar y predecir las emociones de aliados y enemigos. Incluso quiere que la aplicación AI aconseje a los generales sobre las principales decisiones militares. El respaldo de DARPA es la pistola inicial para una carrera con el gobierno y las nuevas empresas para usar la inteligencia artificial para predecir las emociones, pero la ciencia detrás de esto es profundamente controvertida. Algunos dicen que no está probado, lo que hace que las aplicaciones militares sean mucho más arriesgadas.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los riesgos de usar IA en la defensa nacional

Extraordinaria charla de Mariarosaria Taddeo sobre la  naturaleza de la IA y los riesgos que comporta su uso en defensa. Habla sobre ciberseguridad. El resumen es que no se debe usarhttps://youtu.be/e6cvXffMYJs
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Revista Intligencia Artificial, num 48

La Marina de EEUU va a desplegar submarinos autónomos con capacidad de matar

Se trata del proyecto CLAWS para desplegar submarinos autónomos no tripulados. Sus torpedos serán controlados por IA sin intervención humana.

Stuart Russell considera CLAWS un «proyecto peligroso»

https://thenextweb.com/neural/2020/03/10/the-us-navy-is-developing-ai-powered-submarines-that-could-kill-autonomously/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)