Diseña un sitio como este con WordPress.com
Comenzar

El vuelo hacia la IA crítica en seguridad

 El documento analiza la industria de la aviación como un caso de estudio para la adopción de estándares de seguridad de IA y cómo un enfoque medido para aplicarlos primero en contextos no críticos como el mantenimiento predictivo, la planificación de rutas y el apoyo a la toma de decisiones es un mejor enfoque para desarrollar estándares y prácticas que luego pueden aplicarse a escenarios más críticos para la seguridad, como el control de vuelo. También destaca la importancia de la coherencia entre jurisdicciones en este ámbito, ya que la aceptación de la seguridad de vuelo es una piedra angular para el comercio y el movimiento de capital y mano de obra a través de las fronteras.

El documento también aplica el marco paradigmático de diferentes tipos de carreras y menciona que, según los hallazgos preliminares, está claro que hay una carrera suave hacia la cima en términos de estándares de seguridad dado el fuerte énfasis de este dominio en la seguridad operativa sobre todo lo demás. Finalmente, se hacen varias recomendaciones en la línea de los roles que pueden desempeñar los reguladores, cómo los actores de la industria pueden interactuar entre sí y los incentivos para que el segmento de investigación contribuya a esto, que brindan una hoja de ruta para aplicar potencialmente algunos de los aprendizajes. desde este a otros dominios donde la seguridad es esencial.

https://montrealethics.ai/research-summary-the-flight-to-safety-critical-ai/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Anuncio publicitario

El impacto de la IA en el periodismo

Al principio, la mayoría de las herramientas de Natural Language Generation (NLG) que producen estos artículos fueron proporcionadas por empresas de software como Narrative Science. Hoy en día, muchas organizaciones de medios han desarrollado versiones internas. La BBC tiene Juicer, el Washington Post tiene Heliograf y casi un tercio del contenido publicado por Bloomberg es generado por un sistema llamado Cyborg. Estos sistemas comienzan con datos: gráficos, tablas y hojas de cálculo. Los analizan para extraer hechos particulares que podrían formar la base de una narrativa. Generan un plan para el artículo y, finalmente, elaboran oraciones utilizando software de generación de lenguaje natural.

Estos sistemas solo pueden producir artículos en los que se disponga de datos altamente estructurados como entrada, como un video de un partido de fútbol o datos de hoja de cálculo del rendimiento anual de una empresa. No pueden escribir artículos con estilo, imaginación o análisis en profundidad. Como resultado, no han despedido a miles de periodistas. En cambio, han aumentado drásticamente el número de artículos de nicho que se escriben.

https://www.forbes.com/sites/calumchace/2020/08/24/the-impact-of-ai-on-journalism/#56a513d82c46

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Los bancos enfrentan desafíos de equidad al comprometerse con la tecnología de IA

Un informe de la Unidad de Inteligencia de The Economist (EIU) dijo que el sesgo de datos que conduce a la discriminación contra individuos o grupos era uno de los riesgos más importantes para los bancos que utilizan la tecnología.
La IA actualmente ocupa un lugar destacado en la agenda bancaria y la interrupción causada por Covid-19 ha «intensificado» su adopción en el sector, según la EIU. Los bancos están utilizando IA para crear servicios bancarios más personalizados para los clientes, para automatizar los procesos administrativos y para mantenerse al día con los desarrollos en los bancos retadores digitales, pioneros en inteligencia artificial en el sector.
Pero los bancos deberán garantizar decisiones éticas, justas y bien documentadas basadas en la inteligencia artificial, dijo la IA supervisora ​​de EIU: gobernar la inteligencia artificial en el informe bancario. Dijo que las decisiones tomadas por las computadoras deben seguir siendo éticas, sin prejuicios, y estas decisiones deben ser explicables.
Para lograr estos objetivos, la IA debe ser ética por diseño, los datos deben ser monitoreados por su precisión e integridad, los procesos de desarrollo deben estar bien documentados y los bancos deben asegurarse de tener el nivel adecuado de habilidades.
Pete Swabey, director editorial para Europa, Medio Oriente y África (EMEA) – Thought Leadership en la EIU, dijo: “La IA es vista como un diferenciador competitivo clave en el sector. Nuestro estudio, basándose en la orientación dada por los reguladores de todo el mundo, destaca los desafíos clave de gobernanza que los bancos deben abordar si quieren capitalizar la oportunidad de IA de manera segura y ética «.
Una posible falta de supervisión humana es una preocupación importante, según la EIU. Dijo que reclutar y capacitar a personas con las habilidades adecuadas debería ser una prioridad: «Los bancos deben garantizar el nivel adecuado de experiencia en inteligencia artificial en todo el negocio para construir y mantener modelos de inteligencia artificial, así como supervisar estos modelos».
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

IA y Adquisiciones:Lo que la IA no puede hacer aún

La IA ha mejorado significativamente en los últimos 20 años, pero todavía hay límites claros para lo que pueden hacer los algoritmos. La IA está mucho mejor equipada para tareas relacionadas con la categorización y clasificación que el juicio o la predicción. El profesor asociado de Princeton, Arvind Narayanan, se refiere a los programas vendidos en la última categoría como «aceite de serpiente AI». La inteligencia artificial es especialmente sólida en tareas como el reconocimiento de imágenes, la traducción y la generación de contenido nuevo (por ejemplo, falsificaciones profundas o texto generado artificialmente, como Transformador preformado generativo-2 (GPT-2) _. Estas son tareas que son limitadas, con un propósito claramente definido y poca ambigüedad sobre la exactitud del resultado. La IA es la más adecuada para tales aplicaciones.

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Indra revoluciona el control de tráfico aéreo

Indra ha desarrollado tecnología de torres de control remotas. La primera experiencia ha sido Noruega. El centro va a controlar 36 de los 46 aeropuertos noruegos.

https://www.eurasiareview.com/17022020-indra-revolutionizes-air-traffic-control-with-artificial-intelligence-remote-tower/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Meadowhall facial recognition scheme troubles watchdog

https://www.bbc.com/news/technology-51268093

AI applications, AI FATE (fairness accuracy transparency ethics), AI Incident, Aplicaciones de la IA, Eth Surveillance,

U.S. Police Already Using ‘Spot’ Robot From Boston Dynamics in the Real World

Massachusetts State Police (MSP) has been quietly testing ways to use the four-legged Boston Dynamics robot known as Spot, according to new documents obtained by the American Civil Liberties Union of Massachusetts. And while Spot isn’t equipped with a weapon just yet, the documents provide a terrifying peek at our RoboCop future.

https://gizmodo.com/u-s-police-already-using-spot-robot-from-boston-dynami-1840029868

2019-08 Waymo is going to share its self-driving data—but it’s still not enough

Waymo says it will share some of the data it’s gathered from its vehicles for free so other researchers working on autonomous driving can use it. Waymo isn’t the first to do this: Lyft, Argo AI, and other firms have already open-sourced some data sets. But Waymo’s move is notable because its vehicles have covered millions of miles on roads already.

https://www.technologyreview.com/f/614211/waymo-is-going-to-share-its-self-driving-databut-its-still-not-enough/?utm_medium=tr_social&utm_campaign=site_visitor.unpaid.engagement&utm_source=Twitter#Echobox=1566491935