El Centro de Futuros Technomorales cierra la brecha entre la tecnología y la moralidad

 El Edinburgh Futures Institute se complace en albergar el Center for Technomoral Futures. Este Centro es parte integral de la misión central de EFI mientras trabajamos con comunidades, industrias y gobiernos para construir nuestra cartera de investigación, educación y participación rica en datos. Actualmente vivimos un período de gran incertidumbre; un período en el que los valores que dan forma a nuestro ámbito público están abiertos al escrutinio como nunca antes, y en el que la innovación tecnológica está transformando nuestras vidas. Bajo el liderazgo del profesor Vallor, el nuevo Centro proporcionará conocimientos de investigación y programas educativos para mejorar la confianza y la comprensión del público y garantizar que la innovación esté conformada por los más altos estándares éticos.

https://www.ed.ac.uk/news/2020/centre-bridges-gap-between-tech-and-morality

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La deliberación pública ayudaría en los problemas de legimitidad de la IA

La importancia de la legitimidad pública, que se refiere a la amplia base de apoyo público que permite a las empresas, diseñadores, servidores públicos y otros diseñar y desarrollar IA para ofrecer resultados beneficiosos, fue ilustrada por una serie de eventos públicos muy controvertidos que tuvieron lugar en 2018.

https://www.adalovelaceinstitute.org/public-deliberation-could-help-address-ais-legitimacy-problem-in-2019/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo Eslovenia es líder mundial en IA centrada en el ser humano

Eslovenia es una potencia mundial en IA, a pesar de ser un país de os millones de habitantes. En los 1950 se fundó el Jozef Stefan Institute (JSI) para investigación científica. En los 1970 Eslovenia fue gran defensora de la IA e hizo grandes inversiones en tecnología precursoras como redes neuronales, modelado de datos y análisis estadístico. Eslovenia se ha convertido en un faro académico de la IA.

A principios de 2020 Eslovenia extendió el JSI con el  International Research Center on Artificial Intelligence (IRCAI).

El artículo describe los tres primeros casos de uso del IRCAI:

  1. Liberación del modelo «gemelo digital» de Social Awareness to Augment Decision Making. Es una de las herramientas más avanzadas en diversas aplicaciones, entre ellas la pandemia del coronavirus
  2. Impulso de Soluciones el Coronaviris mediante Nuevas Capacidades de Visualización analítica
  3. Defensa de la conciencia situacional para el monitoreo global y los sistemas predictivos
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Rethinking Data

El programa Rethinking Data se construirá sobre el valor de un ecosistema de conocimiento, basado en tres aspectos claves:

  • cambiar los relatos
  • cambia las prácticas
  • cambiar las regulaciones
Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Cuál será la primera pandemia de la edad media de los algoritmos para la gobernanza de datos?

Las grandes crisis traen grandes cambios. Lo han hecho a lo largo de la historia.

Lo que también está revelando esta crisis del coronavirus es la ruptura del sistema de gobernanza de datos. Las compañías privadas tienen gran cantidad de datos en su poder con el objetivo de sacar beneficio de ellos. Llama la atención que el gobierno inglés ha convocado a las grandes tecnológicas para implorar la cesión de datos a las instituciones públicas.

El Instituto Ada Lovelace aboga por una política de datos para el bien común, y propone la estrategia Rethinking Data para cambiar el relato y la regulación de los datos.

https://www.adalovelaceinstitute.org/what-will-the-first-pandemic-of-the-algorithmic-age-mean-for-data-governance/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El uso de datos de salud debe estar sjeto a Responsabilidad, Trnasparencia y participación pública

Una publicación de un instituto de investigación sobre datos de salud del NHS.

https://understandingpatientdata.org.uk/news/accountability-transparency-and-public-participation-must-be-established-third-party-use-nhs

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Mejor comprensión de la IA

Artículo de Nesta sobre IA, las preocupaciones éticas, los centros que investigan y proponen medidas para resolverlas. Un informe detallado y completo escrito por Julián García-Mateos.

https://www.nesta.org.uk/blog/better-intelligence-about-artificial-intelligence/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Canadá está sacando ventaja en IA

Canadá está consiguiendo atraer grandes compañías de IA. Es un país líder en investigación y en empresas de IA. Pioneros como Geoffrey Hinton y Yoshua Bengio han cultivado talento de primera categoría. Se encuentra entre los 5 países de mayor impacto de investigadores y empreorelacionado con la IA. Según los informes gubernamentales, en 2017 se crearon 17.000 empleos en el área de Toronto.i

https://mail.google.com/mail/u/0/#inbox/FMfcgxwGDWtzjnZmFpHphkRnCrZJSjfj

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Qué está bien y mal con los datos biométricos?

En una nota de un taller del Citizen’s Biometric Council.

Los datos biométricos levantan preocupaciones. El papel del Council es evaluar el impacto de étas en la sociedad. Los reguladores y creadores de políticas se hacen preguntas que aún no tienen respuesta:

  • ¿Qué nivel de información de ser suministrado al desplegar sistemas de reconodimiento de voz?
  • ¿Cuáles son los usos aceptables del reconocimiento facial en espacios públicos?
  • ¿Cuáles son las normas apropiadas que hay que mantener con las tenologías biométricas emergentes?
La cuestión clave es proponer un compromiso de expectativas del público, condiciones de para confianza y líneas rojas en el uso de datos biométricos.
Se espera perfilar respuestas a las preguntas anteriores en futuros talleres.

https://www.adalovelaceinstitute.org/what-is-or-isnt-ok-when-it-comes-to-biometrics/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

La Universidad Estatal de Penn abre un centro sobre IA socialmente responsable

El Centro Penn State para la Inteligencia Artificial Socialmente Responsable promueve el desarrollo reflexivo y la aplicación de la IA y estudia su impacto en todas las áreas del esfuerzo humano. Además de apoyar la investigación en la IA para el bien social y mitigar las amenazas de su mal uso. CPSAIS alentará que todas las actividades de investigación y desarrollo de la IA consideren las implicaciones sociales y éticas, así como las consecuencias intencionadas y no intencionadas.

El centro incluirá profesorado de diferentes facultades.

Noticia
https://news.psu.edu/story/608338/2020/02/14/research/new-research-center-will-focus-socially-responsible-artificial

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Crea tu sitio web con WordPress.com
Comenzar