Las empresas se apresuran a utilizar la inteligencia artificial, pero pocas ven una recompensa

 El informe destaca las empresas que implementaron la IA como parte de un replanteamiento más amplio de cómo operan y, como resultado, obtuvieron mayores retornos. Repsol, por ejemplo, una empresa española de energía y servicios públicos, utiliza IA para identificar problemas en sus operaciones de perforación; coordinar la mezcla, el almacenamiento y la entrega de aceite; y generar automáticamente ofertas para los clientes. Pero el informe sugiere que Repsol se beneficia más de cómo aprende de estos procesos y, como resultado, implementa nuevas prácticas comerciales.

https://www.wired.com/story/companies-rushing-use-ai-few-see-payoff/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

No estamos preparados para la IA, dice la ganadora del Squirrel AI Award de 1 millón de dólares

 Finalmente, ¿por qué la IA aún no ha tenido mucho impacto en covid-19?

La IA no va a resolver todos los grandes problemas que tenemos. Pero ha habido algunos pequeños ejemplos. Cuando todos los servicios clínicos no esenciales se redujeron a principios de este año, usamos una herramienta de inteligencia artificial para identificar qué pacientes de oncología en Boston aún deberían ir y hacerse su mamografía anual.

Pero la razón principal por la que la IA no ha sido más útil no es la falta de tecnología, sino la falta de datos. Ya sabes, estoy en el equipo de liderazgo de la J-Clinic del MIT, un centro de inteligencia artificial en el cuidado de la salud, y muchos de nosotros en abril dijimos: Realmente queremos hacer algo, ¿dónde podemos obtener los datos? Pero no pudimos conseguirlo. Fue imposible. Incluso ahora, seis meses después, no es obvio cómo obtenemos los datos.

La segunda razón es que no estábamos listos. Incluso en circunstancias normales, cuando las personas no están bajo estrés, es difícil adoptar herramientas de IA en un proceso y asegurarse de que todo esté debidamente regulado. En la crisis actual, simplemente no tenemos esa capacidad.

Sabes, entiendo por qué los médicos son conservadores: la vida de las personas está en juego. Pero espero que esta sea una llamada de atención a lo poco preparados que estamos para reaccionar rápidamente ante nuevas amenazas. Por mucho que piense que la IA es la tecnología del futuro, a menos que descubramos cómo confiar en ella, no la veremos avanzar.

https://www.technologyreview.com/2020/09/23/1008757/interview-winner-million-dollar-ai-prize-cancer-healthcare-regulation/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Es difícil para las redes neuronales aprender el juego de la vida

 Los esfuerzos para mejorar las capacidades de aprendizaje de las redes neuronales se han centrado principalmente en el papel de los métodos de optimización más que en las inicializaciones ponderadas. Sin embargo, hallazgos recientes sugieren que las redes neuronales se basan en pesos iniciales aleatorios afortunados de subredes llamadas «billetes de lotería» que convergen rápidamente en una solución. Para investigar cómo las inicializaciones de peso afectan el rendimiento, examinamos pequeñas redes convolucionales que están entrenadas para predecir n pasos del autómata celular bidimensional Conway’s Game of Life, cuyas reglas de actualización se pueden implementar de manera eficiente en una red convolucional de capa 2n + 1. Encontramos que las redes de esta arquitectura entrenadas en esta tarea rara vez convergen. Más bien, las redes requieren sustancialmente más parámetros para converger de manera consistente. Además, las arquitecturas casi mínimas son sensibles a pequeños cambios en los parámetros: cambiar el signo de un solo peso puede hacer que la red no aprenda. Finalmente, observamos un valor crítico d_0 tal que entrenar redes mínimas con ejemplos en los que las células están vivas con probabilidad d_0 aumenta dramáticamente la posibilidad de convergencia hacia una solución. Concluimos que entrenar redes neuronales convolucionales para aprender la función de entrada / salida representada por n pasos de Game of Life exhibe muchas características predichas por la hipótesis del boleto de lotería, a saber, que el tamaño de las redes requeridas para aprender esta función a menudo es significativamente mayor que la red mínima requerida para implementar la función.

https://arxiv.org/abs/2009.01398

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La Patrulla Fronteriza ha utilizado el reconocimiento facial para escanear más de 16 millones de volantes y solo capturó a 7 impostores

 La agencia que administra el programa de reconocimiento facial en el aeropuerto y la frontera de los Estados Unidos no ha informado adecuadamente al público sobre cómo funciona, según un nuevo informe. En general, el informe se lee como una gran señal de alerta: el gobierno de los EE. UU. Está avanzando con la adopción de esta tecnología cuestionable, y no informa al público ni controla la precisión.

Por ley, se supone que la Patrulla de Aduanas y Fronteras debe informar al público cuando se usa el reconocimiento facial colocando carteles claros y legibles que le digan a las personas que se están escaneando sus rostros y cómo pueden optar por no participar. También se supone que el departamento debe poner información precisa y actualizada en línea sobre su reconocimiento facial y proporcionar información a través de su centro de llamadas.

https://onezero.medium.com/border-patrol-used-facial-recognition-to-scan-more-than-16-million-fliers-and-caught-7-imposters-21332a5c9c40

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

¿Todo es justo en préstamos hipotecarios y fintech?

 La IA no es inmune a los desafíos de los sesgos sistémicos. Como Sarah Myers West, investigadora postdoctoral del AI Now Institute de la Universidad de Nueva York, explicó a CBS News, «recurrimos al aprendizaje automático con la esperanza de que sean más objetivos, pero en realidad lo que están haciendo es reflejar y amplificar el historial patrones de discriminación y, a menudo, de formas que son más difíciles de ver «. Se ha creado un círculo vicioso inadvertido, mediante el cual se utilizan datos contaminados para informar decisiones futuras.

https://www.forbes.com/sites/ilonalimonta-volkova/2020/08/28/all-is-fair-in-mortgage-lending-and-fintech/#5864eb637aa3

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Por qué algo de inteligencia artificial es inteligente hasta que se vuelve tonta

 «Los seres humanos tendemos a sobreestimar los avances de la inteligencia artificial y subestimar la complejidad de nuestra propia inteligencia», escribe Mitchell. Por lo tanto, sugiere que los temores de que las máquinas superinteligentes se apoderen del mundo estén fuera de lugar, sugiere, citando comentarios del economista y científico del comportamiento Sendhil Mullainathan: “Deberíamos tener miedo”, escribió. “No de máquinas inteligentes. Pero de máquinas que toman decisiones que no tienen la inteligencia para tomar. Le tengo mucho más miedo a la estupidez de la máquina que a la inteligencia de la máquina «.

Incluso cuando las máquinas funcionan bien, no siempre son tan inteligentes como parecen. Los informes de habilidad en el reconocimiento de imágenes, por ejemplo, deben atenuarse por el hecho de que los informes de precisión de la máquina a menudo se refieren a sus cinco «suposiciones» principales: si alguna de las cinco es correcta, la máquina recibe el crédito por una identificación correcta.

https://www.knowablemagazine.org/article/technology/2020/why-some-artificial-intelligence-smart-until-its-dumb?utm_source=twitter&utm_medium=post&utm_campaign=originals

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Ni tecnología ni cerebro: mitos y malentendidos sobre la inteligencia artificial

 

El uso de términos difíciles de concretar y el exceso de entusiasmo han alimentado falsas concepciones sobre el funcionamiento y capacidad de estos sistemas

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Demasiados investigadores creen que los problemas del mundo real no son relevantes

 Cualquier investigador que se centre en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como esta: “Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la máquina. comunidad de aprendizaje.»

Estas palabras provienen directamente de una revisión que recibí de un artículo que presenté a la conferencia NeurIPS (Sistemas de procesamiento de información neuronal), un lugar destacado para la investigación del aprendizaje automático. He visto el estribillo una y otra vez en reseñas de artículos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de muchos otros.

Esto me hace preguntarme: si la comunidad siente que el objetivo de resolver problemas del mundo real de alto impacto con el aprendizaje automático tiene una importancia limitada, ¿qué estamos tratando de lograr?

Marginar la investigación de aplicaciones tiene consecuencias reales. Los conjuntos de datos de referencia, como ImageNet o COCO, han sido clave para avanzar en el aprendizaje automático. Permiten entrenar y comparar algoritmos con los mismos datos. Sin embargo, estos conjuntos de datos contienen sesgos que pueden incorporarse a los modelos resultantes.

Más de la mitad de las imágenes de ImageNet (pdf) provienen de Estados Unidos y Gran Bretaña, por ejemplo. Ese desequilibrio lleva a los sistemas a clasificar de manera inexacta las imágenes en categorías que difieren según la geografía (pdf). Los conjuntos de datos de rostros populares, como la Base de datos de rostros de AT&T, contienen principalmente sujetos masculinos de piel clara, lo que conduce a sistemas que luchan por reconocer rostros de piel oscura y mujeres.

https://www.technologyreview.com/2020/08/18/1007196/ai-research-machine-learning-applications-problems-opinion/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La amenaza de la automatización es una profecía autocumplida

 A medida que las máquinas hicieron que ciertas tareas fueran más eficientes, aumentando la producción general, la demanda se desplazó hacia las tareas complementarias que no podían automatizarse. A medida que avanza la tecnología, se puede automatizar cada vez más el trabajo, hasta un punto nunca antes soñado, y el patrón de demanda laboral que se desplaza hacia tareas complementarias que requieren habilidad humana y más adaptabilidad se ha mantenido.

Pero algunos argumentan que los avances en inteligencia artificial ahora pueden o pronto podrán automatizar tareas más allá de esta restricción. Esta promesa de la IA ha existido desde el inicio del campo en la década de 1950. El pionero de la IA, Marvin Minsky, declaró en 1961 que “[dentro] de nuestra vida, las máquinas pueden superarnos en inteligencia general”. Sus colegas hicieron declaraciones similares. Los primeros fracasos en la investigación de la IA pueden haber advertido a los investigadores sobre el método, pero nunca la ambición. Un ciclo de exageración y decepción ha caracterizado la investigación de la IA desde el principio. Y sin embargo, en el discurso público, los últimos avances de la inteligencia artificial general para desplazar finalmente el trabajo humano siempre han estado presentes. El aprendizaje profundo, el paradigma que ha liderado la última reanimación de la IA desde la tumba, y cuyos principales pensadores recibieron un premio Turing este año, ahora se promociona como ese gran avance.

Pocos investigadores de IA argumentarían que el aprendizaje profundo es todo lo que se necesita para la inteligencia general, dados los problemas que tienen los algoritmos en el razonamiento abstracto o en la identificación de la causalidad, aunque existe la creencia de que una cantidad significativa de trabajo puede ser desplazada por lo que existe. Los economistas han asumido esta promesa y han tratado de predecir exactamente cuál será el impacto. En 2013, un estudio de Oxford Martin predijo que el 47% de los trabajos de EE. UU. Serían susceptibles a la automatización de tecnologías como la inteligencia artificial. La misma metodología encontró que el 57% de los trabajos en la OCDE eran susceptibles.

https://palladiummag.com/2019/07/05/the-threat-of-automation-is-a-self-fulfilling-prophecy/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

‘No culpe a un algoritmo, culpe a las personas detrás de él’

 Los resultados del algoritmo de calificación de exámenes son preocupantes y profundamente perjudiciales para aquellos cuyas calificaciones se han degradado, la mayoría de los cuales provienen de entornos desfavorecidos.

Ninguna persona razonable y racional podría dejar de simpatizar completamente con la desesperación palpable y la injusticia que sienten los jóvenes, sus padres y maestros.

Entonces, ¿qué salió mal? La palabra «algoritmo» se ha convertido en el villano misterioso y sin rostro que llena el debate y la discusión sobre los resultados de GCSE y A-level de este año. Pero, ¿qué es y cómo podemos entender su papel en este fiasco?

Dejemos una cosa clara desde el principio. Los algoritmos no son peligrosos en sí mismos. Son las personas que tomaron las decisiones sobre qué algoritmos aplicar, qué datos usar y exactamente cómo combinar los datos y el algoritmo quienes son el problema, no el algoritmo en sí.

El uso particular de este algoritmo de calificación de exámenes no es ético e injusto. Tanto los datos como el algoritmo deberían haber sido probados mucho más a fondo para garantizar que fueran justos e imparciales.

https://www.tes.com/news/a-levels-gcse-results-algorithm-isnt-dangerous-people-behind-it-are

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Crea tu sitio web con WordPress.com
Comenzar