La IA en la atención sanitaria: Cuatro retos que impiden una mayor adopción clínica

La atención sanitaria tiene la fiebre de la IA.

Según un informe de CB Insights, las empresas de IA en el sector de la salud obtuvieron un récord de 2.500 millones de dólares en inversiones en el primer trimestre de 2021 a través de 111 acuerdos, lo que supone un aumento del 140% respecto al primer trimestre de 2020. Además, una encuesta de Intel a los líderes de la atención médica encontró que el 84% dice que su organización está utilizando actualmente, o lo hará, la IA, en comparación con el 37% en 2018. La encuesta encontró que los principales usos potenciales de la IA incluyen el análisis predictivo para la intervención temprana, el apoyo a la decisión clínica y la colaboración entre múltiples especialidades.

No solo los proveedores están interesados en el uso de la IA. Los pagadores están utilizando cada vez más la IA para reducir los gastos e identificar a los miembros cuyos costes superan los 250.000 dólares en un año determinado. En una encuesta realizada en 2020 por Deloitte a empresas de ciencias de la vida, más del 50% de los encuestados afirmaron que sus inversiones en IA aumentarán. Se espera que la tecnología tenga «un impacto transformador en la investigación y el desarrollo (I+D) biofarmacéutico», señala Deloitte.

Además, los expertos afirman que la pandemia de COVID-19 no ha hecho más que aumentar el apetito por las soluciones de IA entre los ejecutivos del sector sanitario. Un informe de KPMG reveló que los líderes empresariales del sector sanitario han confiado de forma abrumadora en la capacidad de la IA para supervisar la propagación de los casos de COVID-19 (91%), ayudar al desarrollo de vacunas (94%) y a la distribución (88%), respectivamente.

«Hemos visto la casi eliminación de la angustia competitiva», dice el doctor John Halamka, presidente de la Plataforma de la Clínica Mayo. «Con COVID, descubrimos que teníamos que unirnos como coalición, como sociedad para hacer frente a la respuesta de COVID. Durante COVID se produjeron un montón de asociaciones, colaboraciones y empresas conjuntas no obvias».

El mejor ejemplo de este tipo de asociaciones, señala Halamka, es el hecho de que Google, Microsoft y Apple se unieran para crear el sistema de notificación de la exposición a COVID. Este tipo de colaboraciones, dice, impulsará al sector a desarrollar y adoptar la IA.

Por supuesto, Halamka y otros reconocen que la adopción de la IA en la atención sanitaria es todavía incipiente, en particular en el ámbito clínico. La preocupación por la capacidad de integración en el flujo de trabajo clínico, los sesgos y la integridad de los datos, la falta de un marco ético y de regulación en todo el sector, y los costes y el rendimiento de la inversión (ROI), siguen siendo obstáculos importantes para aumentar la adopción de la IA.

En la primera parte de una serie de dos partes, Health Evolution analizará en profundidad algunos de los obstáculos que impiden una mayor adopción de la IA en los entornos clínicos. En la segunda parte, examinaremos las áreas clínicas más prometedoras para el uso de la IA, además de algunas en el ámbito de las ciencias de la vida.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El aprendizaje automático puede revolucionar la sanidad, pero también conlleva riesgos legales

https://www.healthcareitnews.com/news/machine-learning-can-revolutionize-healthcare-it-also-carries-legal-risks

A medida que el aprendizaje automático y la inteligencia artificial se han hecho omnipresentes en la atención sanitaria, han surgido preguntas sobre sus posibles repercusiones.

Y como señaló Matt Fisher, consejero general de la plataforma de atención virtual Carium, esos impactos potenciales pueden, a su vez, dejar a las organizaciones abiertas a posibles responsabilidades.  

«Todavía es un área emergente», explicó Fisher en una entrevista con Healthcare IT News. «Hay un montón de preguntas diferentes sobre dónde pueden surgir los riesgos y las responsabilidades». 

Fisher, que está moderando un panel sobre el tema en el evento HIMSS Machine Learning & AI for Healthcare este diciembre, describió dos áreas principales de preocupación legal: ciberseguridad y sesgo. (HIMSS es la organización matriz de Healthcare IT News).

Cuando se trata de ciberseguridad, dijo, los problemas potenciales no son tanto con la consecuencia de usar el modelo como con el proceso de entrenamiento. «Si las grandes empresas contratan a un sistema sanitario, vamos a trabajar para desarrollar nuevos sistemas que analicen los datos y produzcan nuevos resultados», dijo.

Y todos esos datos podrían representar un jugoso objetivo para los malos actores. «Si un sistema sanitario transfiere información sanitaria protegida a una gran empresa tecnológica, no sólo se plantea el problema de la privacidad, sino también el de la seguridad», dijo. «Tienen que asegurarse de que sus sistemas están diseñados para protegerse de los ataques».

Algunos hospitales víctimas del ransomware se han enfrentado al doble problema de las demandas de los pacientes afectados que dicen que los sistemas sanitarios deberían haber tomado más medidas para proteger su información.   

Y una brecha es una cuestión de cuándo, no de si, dijo Fisher. Fisher dijo que los datos sintéticos o desidentificados son opciones para ayudar a aliviar el riesgo, si los conjuntos son suficientes para la formación.  

«Cualquiera que trabaje con información sensible tiene que ser consciente y pensar en ello», dijo.  

Mientras tanto, si un dispositivo se basa en un algoritmo sesgado y da lugar a un resultado menos que ideal para un paciente, eso podría dar lugar a reclamaciones contra el fabricante o una organización sanitaria. La investigación ha demostrado, por ejemplo, que los modelos sesgados pueden empeorar el impacto desproporcionado que la pandemia del COVID-19 ya ha tenido en las personas de color.

«Se han empezado a ver reclamaciones relacionadas con la historia clínica electrónica en casos de mala praxis», señaló Fisher. Si un paciente experimenta un resultado negativo de un dispositivo en su casa, podría presentar la demanda contra el fabricante, dijo.   

Y un clínico que confíe en un dispositivo en un entorno médico y no tenga en cuenta los resultados variados para diferentes grupos de personas podría correr el riesgo de una demanda por negligencia. «Cuando se informa y se habla ampliamente de este tipo de problemas, se presenta un panorama más favorable para tratar de encontrar a las personas que han sido perjudicadas», dijo Fisher.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Ética de la IA en patología

https://ajp.amjpathol.org/article/S0002-9440(21)00303-5/fulltext

El aprendizaje profundo ha hecho avanzar rápidamente los paradigmas de la inteligencia artificial (IA) y la toma de decisiones algorítmica (ADM), afectando a muchos campos tradicionales de la medicina, incluida la patología, que es una especialidad de la medicina muy centrada en los datos. La naturaleza estructurada de los repositorios de datos de patología hace que sea muy atractivo para los investigadores de IA entrenar modelos de aprendizaje profundo para mejorar la prestación de atención médica. Además, existen enormes incentivos financieros que impulsan la adopción de la IA y la ADM debido a la promesa de aumentar la eficiencia del proceso de prestación de asistencia sanitaria. La IA, si se utiliza sin ética, puede exacerbar las desigualdades existentes en la atención sanitaria, especialmente si no se aplica correctamente. Hay una necesidad urgente de aprovechar el enorme poder de la IA de una manera ética y moralmente justificable. Esta revisión explora las cuestiones clave relacionadas con la ética de la IA en la patología. Se discuten las cuestiones relacionadas con el diseño ético de los estudios de IA en patología y los riesgos potenciales asociados a la implementación de la IA y la ADM en el flujo de trabajo de la patología. Se describen tres principios fundamentales de la IA ética: transparencia, responsabilidad y gobernanza, en el contexto de la patología. La futura práctica de la patología debe guiarse por estos principios. Los patólogos deben ser conscientes del potencial de la IA para ofrecer una atención sanitaria superlativa y de los escollos éticos que conlleva. Por último, los patólogos deben tener un asiento en la mesa para impulsar la futura implementación de la IA ética en la práctica de la patología.

Para que los pacientes confíen en la IA médica, deben entenderla

https://hbr.org/2021/09/for-patients-to-trust-medical-ai-they-need-to-understand-it

La IA promete aumentar la calidad y reducir el coste de la asistencia sanitaria en los países desarrollados y en desarrollo. Pero un obstáculo para su uso es que los pacientes no confían en ella. Una de las razones principales es que perciben la IA médica como una caja negra y creen saber más del proceso de toma de decisiones de los médicos de lo que realmente saben, según la investigación de los autores. Un remedio: Ofrecer a los pacientes una explicación de cómo toman las decisiones ambos tipos de profesionales sanitarios.

Uso de la inteligencia artificial para el análisis de imágenes en los programas de cribado de cáncer de mama: revisión sistemática de la precisión de las pruebas

https://www.bmj.com/content/374/bmj.n1872

Objetivo Examinar la precisión de la inteligencia artificial (IA) para la detección del cáncer de mama en la práctica del cribado mamográfico.

John Halamka habla de los 4 grandes retos para la adopción de la IA en la sanidad

https://www.healthcareitnews.com/news/john-halamka-4-big-challenges-ai-adoption-healthcare

La promesa de la inteligencia artificial y el aprendizaje automático para la prestación de servicios de salud es brillante, pero todavía es necesario abordar los desafíos significativos en torno a la parcialidad, la equidad y el desarrollo y la entrega de información para que la promesa de la IA se haga realidad.

En su intervención del lunes en HIMSS21 Digital, el Dr. John Halamka, presidente de Mayo Clinic Platform, compartió sus ideas sobre la capacidad de la IA para mejorar la eficiencia del sistema sanitario, los resultados de los pacientes y los flujos de trabajo de los médicos.

Además, abordó la creciente preocupación por el sesgo de la IA y discutió las salvaguardias necesarias para garantizar la equidad en la atención sanitaria apoyada por la IA.

Halamka ve un entorno en el que la IA proporciona grandes y diversos conjuntos de datos de información de pacientes anteriores que los médicos pueden aprovechar para aumentar su propia experiencia y conocimientos personales al tratar a los pacientes.

Un sistema de este tipo podría, por ejemplo, dar a un médico de urgencias datos importantes que le induzcan a buscar, más allá de un diagnóstico inicial (comportamiento errático debido a la presencia de cannabis), un problema que no había considerado (el paciente tiene meningitis).

«El aumento de la IA en la toma de decisiones humanas va a ser muy beneficioso», dijo Halamka.

Sin embargo, una cuestión clave que debe solucionarse primero es garantizar la equidad y combatir los prejuicios que pueden estar «incorporados» a la IA. «Los algoritmos de IA son tan buenos como los datos subyacentes», dijo Halamka. «Y sin embargo, no publicamos estadísticas que describan cómo se desarrollan estos algoritmos».

La solución, dijo, es una mayor transparencia: detallar y compartir a través de la tecnología el origen étnico, la raza, el género, la educación, los ingresos y otros detalles que entran en un algoritmo.

[Vea también: Cómo abordar el sesgo de la IA con una «etiqueta nutricional» algorítmica].

«Una tormenta perfecta para la innovación suele tener lugar cuando hay urgencia por hacerlo, una política que sugiere que debemos hacerlo y la industria diciendo que es lo correcto. Y eso es exactamente lo que está ocurriendo ahora. Es una cuestión de primer orden», dijo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La terapia a través de Zoom debería poner la asistencia mental al alcance de todos, pero no lo ha hecho

https://www.theguardian.com/commentisfree/2021/aug/03/therapy-zoom-mental-healthcare-remote-treatment

Ya sea con un terapeuta privado en Zoom, a través de una aplicación que nos recuerda diariamente que debemos registrar nuestras emociones, o en un ida y vuelta con un chatbot, la teleterapia se ofrece a menudo como un bálsamo para nuestra actual crisis de salud mental. El tratamiento a distancia se promociona como una forma eficaz de llegar a más pacientes en un momento de extrema dificultad, una intervención íntima que puede ampliarse.

Durante el distanciamiento social obligatorio que ha marcado los últimos 18 meses de la pandemia, la teleterapia ha dejado de ser una forma menor de atención para convertirse, a veces, en lo único que se ofrece. La popularidad de las sesiones terapéuticas a distancia se ha disparado en Estados Unidos y los «usuarios» a los que antes llamábamos pacientes se sienten cada vez más cómodos con estas prácticas y, en algunos casos, incluso las prefieren.

Puede que el hecho de que un terapeuta vea a un paciente a través de Zoom o la condensación del tratamiento en interfaces de auto-seguimiento e IA sean innovaciones recientes, pero la idea generalizada de que la tecnología y los procesos a distancia resolverán nuestros males no es nada nuevo. Llevamos más de 100 años recurriendo a formas de tecnología para prestar servicios de salud mental. Desde las curas escritas del siglo XIX que se entregaban por correo y las líneas telefónicas ad hoc, hasta el trabajo que sigue siendo esquivo para crear un psiquiatra con inteligencia artificial, ha habido numerosas relaciones mediadas, en red y a distancia que se han utilizado en los intentos de arreglar problemas de larga data con la prestación terapéutica. Aunque es evidente que esos problemas han evolucionado con el tiempo, también se han mantenido relativamente igual: la buena atención es cara y escasa, y apenas llega a satisfacer una demanda abrumadora.

Aunque durante el último siglo han surgido una y otra vez versiones de la teleterapia en un medio tras otro, también es correcto decir que por fin ha llegado. La industria sanitaria corporativa ha tomado nota. Empresas de terapia online como Talkspace cotizan en el Nasdaq. Amazon ha seguido promocionando su tecnología portátil Halo, que utiliza un micrófono incorporado para realizar una escucha automática, con consejos a los usuarios para que sean más «positivos». Y los trabajadores de cuello blanco de Estados Unidos reciben un aluvión de recordatorios patrocinados por la empresa para que utilicen las aplicaciones de atención plena y bienestar incluidas en sus beneficios.

Las aplicaciones corporativas de teleterapia prometen comodidad y eficacia, métricas situadas en el centro de estas intervenciones desde la invención del teléfono. La privacidad, la confidencialidad y la propia relación terapéutica pasan a un segundo plano.

Con demasiada frecuencia, en estas plataformas el objetivo se convierte simplemente en «aptitud mental». El fitness siempre es fitness para algo: la teleterapia corporativa suele desplegar la lógica de que todo se hace al servicio de que la gente trabaje mejor, más duro y, sí, más eficientemente. Algunas aplicaciones incluso ofrecen terapia sin el terapeuta: ya sea en forma de chatbot o como un tipo de autoseguimiento. El paciente tiene que hacer clic, desplazarse y teclear para mejorar su estado de ánimo a expensas de un trabajo más profundo y abierto y de soluciones sistémicas.

Para el profesional, la teleterapia corporativa presenta el trabajo asistencial en forma de economía sumergida, lo que agrava los antiguos problemas de agotamiento de los médicos. Si se promete a los pacientes mensajes de texto a la carta y se les atrae con la promesa de sesiones más cortas, todo ese trabajo adicional es realizado por trabajadores sobrecargados y desvinculados de la intimidad tradicional con sus pacientes. Antes de la pandemia, los psicólogos y los trabajadores sociales eran cada vez más precarios desde el punto de vista económico; y en el último año, el 10% de los trabajadores de la salud mental en el Reino Unido no ganaban nada, según una encuesta realizada a los profesionales del sector. Otros están recurriendo a plataformas corporativas para ganarse la vida, con honorarios más bajos que los que obtendrían en la práctica privada. Para los pacientes, esta reducción no se repercute: los honorarios siguen siendo aproximadamente los mismos que en la práctica privada, a pesar de las afirmaciones en contra y del cambio radical en la naturaleza de la experiencia terapéutica.

Sin embargo, desde su aparición en los años 60, el tratamiento a distancia se justifica con una promesa de democratización. Sencillamente, estos tratamientos pueden llegar allí donde el tratamiento tradicional de la salud mental no puede o no quiere, nivelando las enormes disparidades en el acceso a la ayuda. Se supone que el aumento de la terapia con silicio, o antes con cables telefónicos, también ha cambiado -de alguna manera, milagrosamente- el número de clínicos disponibles, ha protegido a los que están en el campo y ha bajado los honorarios, al tiempo que ha aumentado el acceso a la atención y la ha desestigmatizado. A veces esto funciona: aunque en gran medida estas iniciativas se han basado en comunidades individuales, o se utilizan en relaciones terapéuticas preexistentes, algunas sí se han ampliado y han alterado radicalmente nuestro panorama asistencial, como en la adopción generalizada de las líneas de atención al suicidio.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Se han construido cientos de herramientas de inteligencia artificial para atrapar a los cóvidos. Ninguna de ellas ha ayudado

https://www.technologyreview.com/2021/07/30/1030329/machine-learning-ai-failed-covid-hospital-diagnosis-pandemic/

Cuando el covid-19 asoló Europa en marzo de 2020, los hospitales se vieron inmersos en una crisis sanitaria que aún no se comprendía bien. «Los médicos no tenían ni idea de cómo tratar a estos pacientes», dice Laure Wynants, epidemióloga de la Universidad de Maastricht (Países Bajos), que estudia las herramientas de predicción.

Pero había datos procedentes de China, que llevaba cuatro meses de ventaja en la carrera para vencer la pandemia. Si se pudieran entrenar algoritmos de aprendizaje automático con esos datos para ayudar a los médicos a entender lo que estaban viendo y tomar decisiones, se podrían salvar vidas. «Pensé: ‘Si hay algún momento en que la IA puede demostrar su utilidad, es ahora'», dice Wynants. «Tenía muchas esperanzas».

Historia relacionada

La IA médica de Google fue súper precisa en un laboratorio. La vida real fue una historia diferente.

Si la IA va a suponer realmente una diferencia para los pacientes, tenemos que saber cómo funciona cuando los humanos reales le ponen las manos encima, en situaciones reales.

Esto nunca ocurrió, pero no por falta de esfuerzo. Los equipos de investigación de todo el mundo se pusieron manos a la obra. La comunidad de la IA, en particular, se apresuró a desarrollar un software que muchos creían que permitiría a los hospitales diagnosticar o clasificar a los pacientes con mayor rapidez, aportando un apoyo muy necesario a las primeras líneas, en teoría.

Al final, se desarrollaron cientos de herramientas predictivas. Ninguna de ellas supuso una diferencia real, y algunas fueron potencialmente perjudiciales.

Ésa es la conclusión condenatoria de múltiples estudios publicados en los últimos meses. En junio, el Instituto Turing, el centro nacional del Reino Unido para la ciencia de los datos y la IA, publicó un informe que resumía los debates de una serie de talleres que celebró a finales de 2020. El claro consenso era que las herramientas de IA habían tenido poco o ningún impacto en la lucha contra el covirus.

No son aptas para el uso clínico

Esto se hace eco de los resultados de dos grandes estudios que evaluaron cientos de herramientas de predicción desarrolladas el año pasado. Wynants es la autora principal de uno de ellos, una revisión publicada en el British Medical Journal que sigue actualizándose a medida que se publican nuevas herramientas y se prueban las existentes. Ella y sus colegas examinaron 232 algoritmos para diagnosticar a los pacientes o predecir el grado de enfermedad que podrían padecer. Descubrieron que ninguno de ellos era apto para el uso clínico. Sólo dos han sido señalados como lo suficientemente prometedores para ser probados en el futuro.

«Es impactante», dice Wynants. «Me adentré en él con algunas preocupaciones, pero esto superó mis temores».

El estudio de Wynants está respaldado por otra gran revisión realizada por Derek Driggs, investigador de aprendizaje automático de la Universidad de Cambridge, y sus colegas, y publicada en Nature Machine Intelligence. Este equipo se centró en los modelos de aprendizaje profundo para diagnosticar el covirus y predecir el riesgo de los pacientes a partir de imágenes médicas, como las radiografías de tórax y las tomografías computarizadas (TC) de tórax. Examinaron 415 herramientas publicadas y, al igual que Wynants y sus colegas, concluyeron que ninguna era apta para el uso clínico.

Historia relacionada

Los médicos utilizan la IA para clasificar a los pacientes con covagancia 19. Las herramientas pueden llegar para quedarse

Ante la escasez de personal y la abrumadora carga de pacientes, un número creciente de hospitales está recurriendo a herramientas automatizadas para ayudarles a gestionar la pandemia.

«Esta pandemia fue una gran prueba para la IA y la medicina», dice Driggs, que está trabajando en una herramienta de aprendizaje automático para ayudar a los médicos durante la pandemia. «Habría servido de mucho para poner al público de nuestro lado», dice. «Pero no creo que hayamos superado esa prueba».

Ambos equipos descubrieron que los investigadores repetían los mismos errores básicos en la forma de entrenar o probar sus herramientas. Las suposiciones incorrectas sobre los datos a menudo significaban que los modelos entrenados no funcionaban como se decía.

Wynants y Driggs siguen creyendo que la IA tiene potencial para ayudar. Pero les preocupa que pueda ser perjudicial si se construye de forma incorrecta, ya que podría pasar por alto diagnósticos o subestimar el riesgo de los pacientes vulnerables. «Hay mucha exageración sobre los modelos de aprendizaje automático y lo que pueden hacer hoy en día», dice Driggs.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La desidentificación de los datos médicos de los pacientes no protege nuestra privacidad

https://hai.stanford.edu/news/de-identifying-medical-patient-data-doesnt-protect-our-privacy

Cuando visitamos a un médico en Estados Unidos, firmamos una declaración de privacidad en la que reconocemos que, aunque nuestro estado de salud y nuestros problemas de salud mental son privados, nuestra información sanitaria puede compartirse para diversos fines legítimos, como la salud pública y la investigación.

Lo que la declaración de privacidad no explica es que, cuando nuestros datos sanitarios se utilizan para estos fines específicos, deben ser «desidentificados» en cumplimiento de la Ley Federal de Portabilidad y Responsabilidad del Seguro Médico (HIPAA). Es decir, hay que eliminar información clave como nombres, fechas de nacimiento, sexo y otros factores. Pero eso no significa que nuestros registros se mantengan realmente privados.

«Hay un desajuste entre lo que pensamos que ocurre con nuestros datos sanitarios y lo que realmente ocurre con ellos», afirma Nigam Shah, profesor de medicina (informática biomédica) y de ciencia de datos biomédicos en la Universidad de Stanford y miembro de la facultad afiliada al Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford. «Necesitamos mantener la privacidad al analizar los datos sanitarios, pero la desidentificación es una forma imperfecta de hacerlo», afirma Shah. 

Aquí, Shah señala las imperfecciones de la desidentificación y propone un camino hacia una protección de la privacidad más sencilla. Sostiene que los datos desidentificados pueden volver a identificarse fácilmente cuando se combinan con otros conjuntos de datos, y la única protección contra la reidentificación en este momento es que el receptor de los datos se comprometa a no hacerlo. Además, las normas han generado un problemático mercado libre de datos desidentificados y han propagado un sistema caro y excesivamente técnico que obstaculiza la investigación que podría hacer uso de los datos de las historias clínicas electrónicas (HCE) para mejorar la atención.

Privacidad de los registros sanitarios: Qué es y qué no es

La privacidad de las historias clínicas se remonta al menos al año 400 a.C., cuando Hipócrates escribió su ahora famoso juramento prometiendo mantener en secreto la información sobre sus pacientes.

Las motivaciones de la protección de la intimidad del paciente siguen siendo las mismas desde la época de Hipócrates: Promueve la comunicación honesta entre el paciente y el médico, que es esencial para la calidad de la atención; y protege a los pacientes de la vergüenza, la discriminación o el daño económico que podría resultar de la divulgación de su estado de salud. 

En virtud de la HIPAA, los proveedores de atención sanitaria y las aseguradoras deben asegurarse de que la información sanitaria de los pacientes no se divulgue indebidamente. Aun así, la HIPAA permite a los proveedores de servicios médicos compartir la información de los pacientes con múltiples fines, como la coordinación de la atención al paciente (consulta con otros médicos, por ejemplo), el buen funcionamiento de la organización médica, la facturación y la salud pública y la investigación.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Ética y gobernanza de la inteligencia artificial para la salud

https://www.who.int/publications/i/item/9789240029200

Las orientaciones de la OMS sobre Ética y Gobernanza de la Inteligencia Artificial para la Salud son el resultado de dieciocho meses de deliberaciones entre destacados expertos en ética, tecnología digital, derecho y derechos humanos, así como expertos de los ministerios de salud.  Aunque las nuevas tecnologías que utilizan la inteligencia artificial son muy prometedoras para mejorar el diagnóstico, el tratamiento, la investigación sanitaria y el desarrollo de fármacos y para apoyar a los gobiernos en el desempeño de las funciones de salud pública, incluida la vigilancia y la respuesta a los brotes, dichas tecnologías, según el informe, deben situar la ética y los derechos humanos en el centro de su diseño, despliegue y uso.

El informe identifica los retos y riesgos éticos que conlleva el uso de la inteligencia artificial de la salud, seis principios de consenso para garantizar que la IA funcione en beneficio público de todos los países. También contiene un conjunto de recomendaciones que pueden garantizar que la gobernanza de la inteligencia artificial para la salud maximice la promesa de la tecnología y haga que todas las partes interesadas -en el sector público y privado- rindan cuentas y respondan a los trabajadores sanitarios que dependerán de estas tecnologías y a las comunidades y personas cuya salud se verá afectada por su uso.

Crea tu sitio web con WordPress.com
Comenzar