Diseña un sitio como este con WordPress.com
Comenzar

El aprendizaje automático puede revolucionar la sanidad, pero también conlleva riesgos legales

https://www.healthcareitnews.com/news/machine-learning-can-revolutionize-healthcare-it-also-carries-legal-risks

A medida que el aprendizaje automático y la inteligencia artificial se han hecho omnipresentes en la atención sanitaria, han surgido preguntas sobre sus posibles repercusiones.

Y como señaló Matt Fisher, consejero general de la plataforma de atención virtual Carium, esos impactos potenciales pueden, a su vez, dejar a las organizaciones abiertas a posibles responsabilidades.  

«Todavía es un área emergente», explicó Fisher en una entrevista con Healthcare IT News. «Hay un montón de preguntas diferentes sobre dónde pueden surgir los riesgos y las responsabilidades». 

Fisher, que está moderando un panel sobre el tema en el evento HIMSS Machine Learning & AI for Healthcare este diciembre, describió dos áreas principales de preocupación legal: ciberseguridad y sesgo. (HIMSS es la organización matriz de Healthcare IT News).

Cuando se trata de ciberseguridad, dijo, los problemas potenciales no son tanto con la consecuencia de usar el modelo como con el proceso de entrenamiento. «Si las grandes empresas contratan a un sistema sanitario, vamos a trabajar para desarrollar nuevos sistemas que analicen los datos y produzcan nuevos resultados», dijo.

Y todos esos datos podrían representar un jugoso objetivo para los malos actores. «Si un sistema sanitario transfiere información sanitaria protegida a una gran empresa tecnológica, no sólo se plantea el problema de la privacidad, sino también el de la seguridad», dijo. «Tienen que asegurarse de que sus sistemas están diseñados para protegerse de los ataques».

Algunos hospitales víctimas del ransomware se han enfrentado al doble problema de las demandas de los pacientes afectados que dicen que los sistemas sanitarios deberían haber tomado más medidas para proteger su información.   

Y una brecha es una cuestión de cuándo, no de si, dijo Fisher. Fisher dijo que los datos sintéticos o desidentificados son opciones para ayudar a aliviar el riesgo, si los conjuntos son suficientes para la formación.  

«Cualquiera que trabaje con información sensible tiene que ser consciente y pensar en ello», dijo.  

Mientras tanto, si un dispositivo se basa en un algoritmo sesgado y da lugar a un resultado menos que ideal para un paciente, eso podría dar lugar a reclamaciones contra el fabricante o una organización sanitaria. La investigación ha demostrado, por ejemplo, que los modelos sesgados pueden empeorar el impacto desproporcionado que la pandemia del COVID-19 ya ha tenido en las personas de color.

«Se han empezado a ver reclamaciones relacionadas con la historia clínica electrónica en casos de mala praxis», señaló Fisher. Si un paciente experimenta un resultado negativo de un dispositivo en su casa, podría presentar la demanda contra el fabricante, dijo.   

Y un clínico que confíe en un dispositivo en un entorno médico y no tenga en cuenta los resultados variados para diferentes grupos de personas podría correr el riesgo de una demanda por negligencia. «Cuando se informa y se habla ampliamente de este tipo de problemas, se presenta un panorama más favorable para tratar de encontrar a las personas que han sido perjudicadas», dijo Fisher.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Anuncio publicitario

Digisprudencia: el diseño de código legítimo

 Este artículo presenta la digisprudencia, una teoría sobre la legitimidad del software que conceptualiza las posibles ilegitimidades del código regulativo y sugiere formas concretas de mejorarlos. Primero, desarrolla la noción de legalismo computacional: el reglamento del código, opacidad, inmediatez, inmutabilidad, omnipresencia y producción privada, antes de esbozar cómo regula el código, según la teoría del diseño y la filosofía de la tecnología. Estas ideas se sintetizan en un marco de posibilidades digisprudenciales, que son traducciones de los requisitos de legitimidad, derivados de la filosofía jurídica, en la lenguaje de diseño. El enfoque ex ante en la producción de código es fundamental, lo que a su vez sugiere un Orientación del papel «constitucional» de los procesos de diseño. El artículo incluye un estudio de caso sobre blockchain aplicaciones y concluye estableciendo algunas vías para el trabajo futuro.

https://osf.io/preprints/lawarxiv/nechu

Inteligencia artificial y la profesión jurídica

 La ley es una de las profesiones antiguas aprendidas que se remonta a la antigua Grecia y Roma. Los orígenes de la abogacía pueden estar vinculados a Cicerón y Quintiliano, quienes fueron los que sentaron las bases de la educación jurídica y la abogacía.1 La profesión desapareció en la Edad Media, período marcado por la represión y la anarquía, pero reapareció en la Edad Media. para ayudar a las personas con los procedimientos y complejidades de un sistema de justicia en desarrollo.2 El abogado ha estado con nosotros desde entonces. Sin embargo, a lo largo de la historia, los abogados han sido objeto de críticas, 3 a menudo debido al costo y la demora. Asimismo, toda sociedad que ha logrado una forma de gobierno estable y organizada ha tenido una profesión jurídica.4 Sin ley, la vida es «desagradable, brutal y breve» .5 La necesidad de abogados es múltiple. Son esenciales para el orden social. Los abogados desempeñan un papel fundamental en la administración de justicia y en el mantenimiento de una sociedad libre y democrática. El abogado habilita la protección de los derechos humanos y la facilitación del comercio. El abogado está ahí para el cliente en tiempos de problemas: «Se les confían intereses de gran magnitud: propiedad, libertad, carácter e incluso la vida misma» .6 Los abogados combinan un aprendizaje extenso con una obligación ética. Se esfuerzan por proteger y promover los intereses de sus clientes, al mismo tiempo que promueven el estado de derecho.

https://bloomsburycp3.codemantra.com/viewer/5fa1611ee21b840001e87874

El peligro legal y técnico de los juicios online

 En lugares con audiencias remotas, los investigadores descubrieron que pueden socavar el derecho del acusado a tener representación legal. Un estudio de 2014 concluyó que a los acusados en Baltimore, Maryland, se les negó su derecho de la Sexta Enmienda a un abogado cuando aparecían en video durante una audiencia de fianza, ya que a los abogados se les negó la capacidad de hablar con sus clientes. Un estudio de 2010 en el condado de Cook, Illinois, encontró que las audiencias de fianza por video también socavaron el acceso a un abogado y dieron como resultado montos de fianza que fueron un 51 por ciento más altos para aquellos que aparecieron virtualmente en comparación con aquellos que tuvieron sus audiencias en persona. Después de ser demandado, el condado de Cook puso fin a su sistema de fianza por video y regresó a las audiencias en persona. El sistema auditivo virtual de Baltimore todavía funciona.

https://www.brookings.edu/techstream/the-legal-and-technical-danger-in-moving-criminal-courts-online/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Responsabilidades en la Adopción de la IA

Conforme se adopta la IA surgen problemas como la responsabilidad cuandolas cosas van mal.

Mientras se adopta la IA en la toma de decisiones automatizada, la toma de decisiones humana se desvanece. Desde la introducción de los vehículos autónomos el objetivo de los fabricantes ha sido que los vehículos autónomos sean más seguros que los conducidos por humanos.
Existe mucha legislación para descargar en el asegurador, así como leyes civiles sobre la responsabilidad de los robots y la IA.
El informe de Responsabilidad de la UE con la IA y otras tecnologías. Algunas de estas guías incluyen;
  • Una persona que opera una tecnología permitida que, sin embargo, conlleva un mayor riesgo de daño a los demás, por ejemplo, robots impulsados ​​por IA en espacios públicos, debe estar sujeta a una responsabilidad estricta por los daños resultantes de su funcionamiento.
  • En situaciones en las que un proveedor de servicios que garantiza el marco técnico necesario tiene un mayor grado de control que el propietario o usuario de un producto o servicio real equipado con IA, esto debe tenerse en cuenta para determinar quién opera principalmente la tecnología.
  • A una persona que utiliza una tecnología que no representa un mayor riesgo de daño para otros aún se le debe exigir que cumpla con los deberes de seleccionar, operar, monitorizar y mantener adecuadamente la tecnología en uso y, en su defecto, debe ser responsable por el incumplimiento de tal deberes si tiene la culpa.
  • Una persona que utiliza una tecnología que tiene un cierto grado de autonomía no debería ser menos responsable del daño resultante que si dicho daño hubiera sido causado por un auxiliar humano.
  • Los fabricantes de productos o contenido digital que incorporen tecnología digital emergente deben ser responsables por los daños causados ​​por defectos en sus productos, incluso si el defecto fue causado por cambios realizados en el producto bajo el control del productor después de haber sido comercializado, y más .
Las empresas deben tener planes de responsabilidad por IA.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Derecho para informáticos y otras personas

Manual de Mireille Hildebrandt. 

La primer parte trata sobre Derecho, Democracia, Ámbitos Privado, Público y Criminal, Derecho Internacional y Supranacional.
La segunda parte va del dominio del ciberderecho: Privacidad y Protección de Datos, Cibercrímen, Copyright y cibercrimen Derecho Privado de Responsabilidad.
La tercera se titula Fronteras delDerecho en un mundo online: personalidad legal de la IA, Legal por diseño o protección legal por diseño.
Conclusión: acerca de la ética, código y derecho.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

IA como Ley

Discurso presidencial a la decimoséptima conferencia internacional sobre inteligencia artificial y derecho.

La tecnología de la información es tan omnipresente y el progreso de AI es tan inspirador que también los profesionales legales experimentan sus beneficios y tienen altas expectativas. Al mismo tiempo, los poderes de la IA han aumentado tanto que ya no es obvio que las aplicaciones de IA (ya sea en la ley o en otros lugares) ayuden a promover una buena sociedad; de hecho, a veces son perjudiciales. Por lo tanto, muchos argumentan que se necesitan salvaguardas para que la IA sea confiable, social, responsable, humana, ética. En resumen: la IA debería ser buena para nosotros. Pero, ¿cómo establecer salvaguardas adecuadas para la IA? Una respuesta sólida disponible es: considerar los problemas y las soluciones estudiadas en AI y Derecho. AI & Law ha trabajado en el diseño de IA social, explicable y responsable alineada con los valores humanos durante décadas, AI & Law aborda los problemas más difíciles en toda la amplitud de AI (en razonamiento, conocimiento, aprendizaje y lenguaje), y AI & Law inspira nuevas soluciones (argumentación, esquemas y normas, reglas y casos, interpretación). Se argumenta que el estudio de la IA como ley apoya el desarrollo de una IA que sea buena para nosotros, haciendo que la IA y la ley sean más relevantes que nunca.
Nota; Artificial Inteligence & Law es una revista
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Qué hacer cuando la IA falla

La IA se basa en el aprendizaje. El COVID-19 ha presentado situaciones de las que no había ejemplos. La IA debe tener planes de contingencia y ser responsable de las consecuencias, pero es difícil.

¿Qué hace a la IA diferente de los sistemas de software tradicionales? ¿Por qué incluso pensar en la respuesta a incidentes de manera diferente en el mundo de la IA? Las respuestas se reducen a tres razones principales, que también pueden existir en otros grandes sistemas de software, pero se exacerban en la IA. Lo primero y más importante es la tendencia de la IA a decaer con el tiempo. El segundo es la tremenda complejidad de la IA. Y por último, la naturaleza probabilística de las estadísticas y el aprendizaje automático (ML).
Plantea la forma de afrontar los incidentes en la iA, que también pueden tener consecuencias legales.
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)