Diseña un sitio como este con WordPress.com
Comenzar

La promesa y el peligro de la IA

John Quackenbush estaba frustrado con Google. Era enero de 2020 y un equipo dirigido por investigadores de Google Health acababa de publicar un estudio en Nature sobre un sistema de inteligencia artificial (IA) que habían desarrollado para analizar mamografías en busca de signos de cáncer de mama. Según el estudio, el sistema no solo funcionaba, sino que lo hacía excepcionalmente bien. Cuando el equipo le proporcionó dos grandes conjuntos de imágenes para analizar -uno del Reino Unido y otro de Estados Unidos- redujo los falsos positivos en un 1,2 y un 5,7 por ciento y los falsos negativos en un 2,7 y un 9,4 por ciento en comparación con las determinaciones originales realizadas por los profesionales médicos. En otra prueba que enfrentó al sistema de IA con seis radiólogos certificados en el análisis de casi 500 mamografías, el algoritmo superó a cada uno de los especialistas. Los autores concluyeron que el sistema era «capaz de superar a los expertos humanos en la predicción del cáncer de mama» y estaba listo para los ensayos clínicos.

Pronto se produjo una avalancha de titulares de prensa. «El sistema de IA de Google puede superar a los médicos en la detección del cáncer de mama», declaraba una noticia de la CNN. «La inteligencia artificial aprende a leer mamografías», señalaba el New York Times. Aunque los resultados fueron realmente impresionantes, no sorprendieron a Quackenbush, catedrático Henry Pickering Walcott de Biología Computacional y Bioinformática y director del Departamento de Bioestadística. No duda del potencial transformador del aprendizaje automático y el aprendizaje profundo -subconjuntos de la IA centrados en el reconocimiento de patrones y la elaboración de predicciones-, especialmente cuando se trata de analizar imágenes médicas en busca de anomalías. «Identificar tumores no es una cuestión estadística», dice, «es una cuestión de aprendizaje automático».

Pero lo que molestó a Quackenbush fue la afirmación de que el sistema estaba listo para los ensayos clínicos a pesar de que nadie había validado de forma independiente los resultados del estudio en las semanas posteriores a su publicación. Esto se debía en parte a que era extremadamente difícil hacerlo. El artículo de Nature carecía de detalles sobre el código del algoritmo que Quackenbush y otros consideraban importante para reproducir el sistema y probarlo. Además, algunos de los datos utilizados en el estudio tenían licencia de un sistema hospitalario estadounidense y no podían compartirse con personas ajenas a la empresa.

NO ES RARO QUE LOS SISTEMAS DE AI FUNCIONEN BIEN EN ENTORNOS DE INVESTIGACIÓN Y LUEGO FRACASEN EN EL MUNDO REAL.

A lo largo de su carrera, Quackenbush ha sido un firme defensor de la transparencia y la puesta en común de datos, hasta el punto de que el presidente Barack Obama lo nombró Campeón del Cambio de la Ciencia Abierta de la Casa Blanca en 2013 por sus esfuerzos para garantizar que grandes cantidades de datos genómicos sean accesibles a los investigadores de todo el mundo. La reproducibilidad es la esencia del método científico, afirma Quackenbush, y es de la máxima importancia cuando se proponen nuevas tecnologías para su uso en ensayos clínicos con humanos. Como ejemplo de precaución, Quackenbush menciona a Anil Potti, un antiguo profesor de la Universidad de Duke que a principios de la década de 2000 afirmó haber descubierto firmas genéticas que podían determinar cómo responderían a la quimioterapia las personas con determinados tipos de cáncer. La técnica llegó a los ensayos clínicos en humanos a pesar de que otros investigadores informaron de que eran incapaces de reproducir los hallazgos de Potti. Al final se descubrió que Potti había falsificado los datos y los resultados del estudio, y todo el castillo de naipes biomédico se vino abajo. Se perjudicó a los pacientes, se presentaron demandas, se retractaron los estudios y se pidió a Quackenbush que se uniera a un grupo de expertos de la Academia Nacional de Ciencias, Ingeniería y Medicina para investigar qué había fallado. El grupo, señala Quackenbush, llegó a la conclusión de que todo podría haberse evitado si otros investigadores hubieran tenido acceso a los datos, el software y los detalles metodológicos de Potti.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Anuncio publicitario

La inteligencia artificial ya forma parte de nuestra vida cotidiana, y su creciente poder es un arma de doble filo

El informe AI100 sostiene que la preocupación por las máquinas superinteligentes y la pérdida de puestos de trabajo a gran escala a causa de la automatización es todavía prematura, ya que se necesita una IA mucho más capaz que la disponible en la actualidad. La principal preocupación que plantea el informe no son las máquinas malévolas de inteligencia superior a la humana, sino las máquinas incompetentes de inteligencia inferior.

Una vez más, es fácil encontrar en las noticias historias de la vida real de los riesgos y amenazas para nuestro discurso democrático y la salud mental que plantean las herramientas impulsadas por la IA. Por ejemplo, Facebook utiliza el aprendizaje automático para clasificar su feed de noticias y dar a cada uno de sus 2.000 millones de usuarios una visión única, pero a menudo incendiaria, del mundo.

La imagen pixelada de Barack Obama aparece étnicamente blanca cuando se «despixela».

Sesgo algorítmico en acción: el software de «despixelado» hace que una foto del ex presidente estadounidense Barack Obama aparezca étnicamente blanca. Twitter / Chicken3gg

El momento de actuar es ahora

Está claro que nos encontramos en un punto de inflexión: tenemos que reflexionar de forma seria y urgente sobre los inconvenientes y riesgos que está revelando la creciente aplicación de la IA. Las capacidades cada vez mejores de la IA son un arma de doble filo. Los daños pueden ser intencionados, como los vídeos deepfake, o involuntarios, como los algoritmos que refuerzan los prejuicios raciales y de otro tipo.

La investigación sobre la IA ha sido tradicionalmente llevada a cabo por científicos informáticos y cognitivos. Pero los retos que plantea hoy la IA no son sólo técnicos. Todos los ámbitos de la investigación humana, y especialmente las ciencias sociales, deben ser incluidos en una amplia conversación sobre el futuro de este campo. Para minimizar los efectos negativos en la sociedad y potenciar los positivos, es necesario que el mundo académico y la sociedad lo tengan en cuenta.

Los gobiernos también tienen un papel crucial en la configuración del desarrollo y la aplicación de la IA. De hecho, los gobiernos de todo el mundo han empezado a considerar y abordar las oportunidades y los retos que plantea la IA. Pero siguen estando por detrás de la curva.

Se necesita una mayor inversión de tiempo y recursos para hacer frente a los retos que plantean las tecnologías de la IA y los campos asociados, que evolucionan rápidamente. Además de la regulación, los gobiernos también necesitan educar. En un mundo basado en la IA, nuestros ciudadanos, desde los más jóvenes hasta los más mayores, necesitan estar alfabetizados en estas nuevas tecnologías digitales.

Al final, el éxito de la investigación en IA se medirá por la forma en que haya empoderado a todas las personas, ayudando a abordar los numerosos problemas perversos a los que se enfrenta el planeta, desde la emergencia climática hasta la creciente desigualdad dentro de los países y entre ellos.

La IA habrá fracasado si perjudica o devalúa a las mismas personas a las que intentamos ayudar.The Conversation