Cómo regular la Inteligencia Artificial de forma correcta: Estado de la IA y cuestiones éticas

https://www.bbntimes.com/technology/how-to-regulate-artificial-intelligence-the-right-way-state-of-ai-and-ethical-issues

Una inteligencia artificial digna de confianza debe respetar todas las leyes y reglamentos aplicables, así como una serie de requisitos; las listas de evaluación específicas pretenden ayudar a verificar la aplicación de cada uno de los requisitos clave:

Agencia y supervisión humanas: Los sistemas de IA deben permitir sociedades equitativas apoyando la agencia humana y los derechos fundamentales, y no disminuir, limitar o guiar erróneamente la autonomía humana.

Robustez y seguridad: Una IA digna de confianza requiere que los algoritmos sean seguros, fiables y lo suficientemente robustos como para hacer frente a errores o incoherencias durante todas las fases del ciclo de vida de los sistemas de IA.

Privacidad y gobernanza de los datos: Los ciudadanos deben tener pleno control sobre sus propios datos, mientras que los datos que les conciernen no se utilizarán para perjudicarlos o discriminarlos.

Transparencia: Debe garantizarse la trazabilidad de los sistemas de IA.

Diversidad, no discriminación y equidad: Los sistemas de IA deben tener en cuenta toda la gama de capacidades, habilidades y requisitos humanos, y garantizar la accesibilidad.

Bienestar social y medioambiental: Los sistemas de IA deben utilizarse para potenciar un cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.

Responsabilidad: Deben establecerse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados.

La normativa de la UE sobre inteligencia artificial amenaza con socavar la red de seguridad social

https://www.computerweekly.com/news/252509326/EU-AI-regulation-risks-undermining-social-safety-net

El plan propuesto por la Unión Europea (UE) para regular el uso de la inteligencia artificial (IA) amenaza con socavar la red de seguridad social del bloque, y está mal equipado para proteger a las personas de la vigilancia y la discriminación, según un informe de Human Rights Watch.

El apoyo a la seguridad social en toda Europa es administrado cada vez más por algoritmos impulsados por la IA, que están siendo utilizados por los gobiernos para asignar beneficios que salvan vidas, proporcionar apoyo al empleo y controlar el acceso a una variedad de servicios sociales, dijo Human Rights Watch en su informe de 28 páginas, Cómo la regulación de inteligencia artificial defectuosa de la UE pone en peligro la red de seguridad social.

Basándose en estudios de casos de Irlanda, Francia, los Países Bajos, Austria, Polonia y el Reino Unido, la organización no gubernamental (ONG) descubrió que la tendencia europea a la automatización está discriminando a las personas que necesitan apoyo de la seguridad social, comprometiendo su privacidad y dificultando la obtención de asistencia gubernamental.

Añadió que, aunque la propuesta de Ley de Inteligencia Artificial (AIA) de la UE, publicada en abril de 2021, reconoce ampliamente los riesgos asociados a la IA, «no protege de manera significativa los derechos de las personas a la seguridad social y a un nivel de vida adecuado».

«En particular, sus escasas salvaguardias pasan por alto cómo las desigualdades existentes y los fallos en la protección adecuada de los derechos -como la brecha digital, los recortes en la seguridad social y la discriminación en el mercado laboral- dan forma al diseño de los sistemas automatizados y se incrustan en ellos».

Según Amos Toh, investigador principal sobre IA y derechos humanos en Human Rights Watch, la propuesta no logrará, en última instancia, acabar con la «vigilancia abusiva y la elaboración de perfiles» de las personas en situación de pobreza. «La propuesta de la UE no hace lo suficiente para proteger a las personas de los algoritmos que las despojan injustamente de las prestaciones que necesitan para mantenerse o encontrar un trabajo», dijo.

La autorregulación no es suficiente

El informe se hace eco de las reclamaciones realizadas por expertos en derechos civiles digitales, que ya habían declarado a Computer Weekly que la propuesta de regulación favorece a las organizaciones -tanto públicas como privadas- que desarrollan y despliegan tecnologías de IA, a las que se les encomienda esencialmente la tarea de marcar casillas, mientras que a los ciudadanos de a pie se les ofrece poca protección o reparación.

Por ejemplo, aunque la AIA establece normas sobre el uso de prácticas de IA «de alto riesgo» y «prohibidas», permite a los proveedores de tecnología autoevaluar si sus sistemas son compatibles con las limitadas protecciones de derechos de la normativa, en un proceso denominado «evaluaciones de conformidad».

«Una vez que aprueben sus propios sistemas (mediante la presentación de una declaración de conformidad), serán libres de ponerlos en el mercado de la UE», dijo Human Rights Watch. «Este abrazo a la autorregulación significa que habrá pocas oportunidades para que la sociedad civil, el público en general y las personas directamente afectadas por la automatización de la administración de la seguridad social participen en el diseño y la implementación de estos sistemas.»

«La automatización de los servicios de la seguridad social debería mejorar la vida de las personas, no costarles la ayuda que necesitan para pagar el alquiler, comprar alimentos y ganarse la vida. La UE debería modificar el reglamento para garantizar que está a la altura de sus obligaciones de proteger los derechos económicos y sociales»

Amos Toh, Human Rights Watch

Añadió que el reglamento tampoco ofrece ninguna vía de recurso contra las empresas tecnológicas a las personas a las que se les deniegan las prestaciones debido a errores de software: «Los organismos gubernamentales responsables del cumplimiento de la normativa en su país podrían tomar medidas correctivas contra el software o detener su funcionamiento, pero el reglamento no concede a las personas directamente afectadas el derecho a presentar un recurso ante estos organismos».

Poniendo como ejemplo el algoritmo de perfiles de empleo de Austria, que según los académicos austriacos se utiliza para apoyar las políticas de austeridad del gobierno, la ONG dijo que ayudaba a legitimar los recortes presupuestarios de la seguridad social reforzando la dañina narrativa de que las personas con malas perspectivas de empleo son perezosas o desmotivadas.

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Cuáles son las próximas políticas que darán forma a la IA, y están los responsables políticos a la altura?

https://www.healthcareitnews.com/news/what-are-upcoming-policies-will-shape-ai-and-are-policymakers-task

La inteligencia artificial es la «tecnología transformadora de nuestro tiempo» y exige una regulación fuerte e inteligente para hacer posible su potencial, dice el académico de Brookings Darrell M. West antes de su aparición en HIMSS Machine Learning & AI for Healthcare.

Por 

Mike Miliard

11 de noviembre de 2021

09:00 AM

Foto: Brookings.edu

Como vicepresidente y director de estudios de gobernanza en la Brookings Institution, y miembro senior de su Centro de Innovación Tecnológica, Darrell M. West pasa mucho tiempo pensando en la intersección de la política y la tecnología emergente.

En su reciente libro, Turning Point: Policymaking in the Era of Artificial Intelligence (Punto de inflexión: la elaboración de políticas en la era de la inteligencia artificial), escrito en colaboración con el presidente de Brookings, John R. Allen, West examina los casos de uso de la IA – «desde los coches autoconducidos hasta los algoritmos de comercio electrónico que parecen saber lo que quieres comprar antes que tú»- y evalúa hacia dónde se dirigen y cómo se verán condicionados por las decisiones políticas que se tomen hoy.

El principal reto -sobre todo en el ámbito de la sanidad, donde la seguridad de los pacientes es primordial- consiste en idear unos límites normativos que maximicen los beneficios de la IA y el aprendizaje automático y minimicen sus posibles peligros.

En el libro, West y Allen ofrecen una serie de recomendaciones: reforzar la supervisión gubernamental, crear nuevos consejos consultivos especializados en las agencias federales, realizar auditorías por parte de terceros para detectar el sesgo algorítmico, etc.

En el próximo evento de HIMSS Machine Learning & AI for Healthcare, West ofrecerá una presentación titulada «The Latest Regulatory Developments Impacting Machine Learning and AI in Healthcare» (Los últimos avances normativos que afectan al aprendizaje automático y la IA en la sanidad), en la que explorará los posibles nuevos cambios de política en torno a los usos clínicos de la inteligencia artificial: sesgo algorítmico, monitorización remota de pacientes, seguridad de los pacientes, rastreadores de fitness y más. Y hablará de lo que pueden significar para los responsables de TI, los médicos y los pacientes.

Como anticipo del evento, West respondió recientemente a algunas preguntas de Healthcare IT News.

Q. Su libro se titula Turning Point. ¿Podría decir unas palabras sobre lo que hace único este momento de la política de inteligencia artificial?

A. La IA es la tecnología transformadora de nuestro tiempo. Se está desplegando en muchos ámbitos diferentes y está alterando la forma en que las personas se comunican, trabajan y aprenden. Ofrece una serie de beneficios, pero también plantea riesgos considerables.

Q. ¿Cuáles son algunas de las regulaciones potenciales o pendientes en torno a la IA sanitaria a las que los proveedores y desarrolladores de tecnología deberían prestar atención/prepararse en un futuro próximo?

A. Hay muchas aplicaciones nuevas en línea, desde rastreadores de fitness y dispositivos de monitorización remota hasta algoritmos de IA y análisis de datos. Es probable que no haya mucha regulación de los dispositivos de consumo, pero sí habrá supervisión de las aplicaciones que puedan causar daños a las personas. Los dispositivos con lecturas inexactas de la presión arterial o los niveles de glucosa podrían ser arriesgados, al igual que los sistemas de apoyo a la toma de decisiones clínicas empleados por los proveedores de salud.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El conflicto entre el afán de castigo de las personas y los sistemas jurídicos

https://www.frontiersin.org/articles/10.3389/frobt.2021.756242/full

La regulación de la inteligencia artificial (IA) se ha hecho necesaria a la luz de su despliegue en escenarios de alto riesgo. Este artículo explora la propuesta de extender la personalidad jurídica a la IA y a los robots, que aún no había sido examinada desde el punto de vista del público en general. Presentamos dos estudios (N = 3.559) para obtener la opinión de la gente sobre la personalidad jurídica electrónica frente a los modelos de responsabilidad existentes. Nuestro estudio revela el deseo de la gente de castigar a los agentes automatizados aunque a estas entidades no se les reconozca ningún estado mental. Además, la gente no cree que el castigo de los agentes automatizados cumpla con la disuasión ni con la retribución y no está dispuesta a concederles condiciones previas de castigo legal, a saber, independencia física y bienes. En conjunto, estos resultados sugieren un conflicto entre el deseo de castigar a los agentes automatizados y su percepción de impracticabilidad. Concluimos discutiendo cómo las futuras decisiones legales y de diseño pueden influir en la reacción del público ante las malas acciones de los agentes automatizados.

1 Introducción

Los sistemas de inteligencia artificial (IA) se han hecho omnipresentes en la sociedad. Para descubrir dónde y cómo afectan estas máquinas1 a la vida de las personas no hay que ir muy lejos. Por ejemplo, estos agentes automatizados pueden asistir a los jueces en la toma de decisiones sobre fianzas y elegir a qué información se exponen los usuarios en Internet. También pueden ayudar a los hospitales a priorizar a los que necesitan asistencia médica y sugerir quiénes deben ser el objetivo de las armas durante la guerra. A medida que estos sistemas se generalizan en una serie de entornos moralmente relevantes, mitigar el modo en que su despliegue podría ser perjudicial para quienes están sometidos a ellos se ha convertido en algo más que una necesidad. Académicos, empresas, instituciones públicas y organizaciones sin ánimo de lucro han elaborado varias directrices éticas para promover el desarrollo responsable de las máquinas que afectan a la vida de las personas (Jobin et al., 2019). Sin embargo, ¿son suficientes las directrices éticas para garantizar el cumplimiento de estos principios? La ética carece de mecanismos para garantizar su cumplimiento y puede convertirse rápidamente en una herramienta para escapar de la regulación (Resseguier y Rodrigues, 2020). La ética no debe ser un sustituto de los principios aplicables, y el camino hacia el despliegue seguro y responsable de la IA parece cruzarse con la ley.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El Parlamento quiere prohibir el reconocimiento facial

https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-parliament-tests-facial-recognition-waters-experimenting-with-facial-recognition-rules-big-big-bucks-in-ai/

EL PARLAMENTO EUROPEO QUIERE PROHIBIR EL RECONOCIMIENTO FACIAL: Después de varios días de rumores en la burbuja tecnológica de la UE por un informe sobre el reconocimiento facial, los eurodiputados han votado hoy por abrumadora mayoría a favor de una resolución que pide la prohibición del uso del reconocimiento facial en lugares públicos por parte de las fuerzas del orden. «Se trata de una gran victoria para todos los ciudadanos europeos», dijo el eurodiputado Petar Vitanov (S&D), autor de la resolución.

Por qué es importante: Aunque la resolución no es vinculante, indica cómo se inclinará el Parlamento en las próximas y duras negociaciones de la ley de IA. La resolución allana el camino para que Brando Benifei (S&D), el principal negociador del proyecto de ley, impulse restricciones aún más fuertes. Benifei ha pedido que se prohíba la controvertida tecnología, y cuenta con el apoyo de casi todos los co-negociadores de diferentes grupos políticos.

Qué más hay en el informe: «Cuando hablamos de reconocimiento facial y espacios públicos, afecta a los derechos fundamentales porque afecta al derecho a la intimidad, al derecho de opinión, al derecho de expresión y al derecho de reunión, porque ya no puedes permanecer en el anonimato», dijo Vitanov a Decoded. El informe también se opone al uso de sistemas policiales predictivos, y pide que los algoritmos de los sistemas de IA utilizados por las fuerzas del orden sean explicables y transparentes. También deberían prohibirse las bases de datos privadas de reconocimiento facial, como las que utiliza Clearview AI. Las fuerzas del orden también deberían llevar a cabo evaluaciones obligatorias del impacto sobre los derechos fundamentales antes de utilizar cualquier sistema de IA.

Seguridad frente a derechos fundamentales: El reconocimiento facial es uno de los mayores debates que se producen en Bruselas. Digi

Regulación del reconocimientoreconocimiento facial enla UE

La inteligencia artificial (IA) impulsa el uso de tecnologías biométricas, incluidas las aplicaciones de reconocimiento facial

facial, que se utilizan con fines de verificación, identificación y categorización por parte de

o públicos. Aunque los mercados de reconocimiento facial están preparados para crecer sustancialmente en los próximos

años, el creciente uso de las tecnologías de reconocimiento facial ha surgido como una cuestión destacada en

el debate público mundial sobre la vigilancia biométrica.

Aunque el uso de sistemas de reconocimiento facial para la seguridad pública tiene ventajas reales, su

de los sistemas de reconocimiento facial para la seguridad pública, su omnipresencia e intrusividad, así como su susceptibilidad a los errores, suscitan una serie de

de derechos fundamentales en lo que respecta, por ejemplo, a la discriminación de determinados

de la población y las violaciones del derecho a la protección de datos y a la intimidad. Para hacer frente a estos efectos

la UE ya ha establecido normas estrictas en la Carta de los Derechos Fundamentales, el Reglamento General de

Reglamento General de Protección de Datos, la Directiva de Aplicación de la Ley y el marco de la UE sobre la no discriminación, que también se aplican a los procesos y actividades relacionados con el RFC. Sin embargo, varios agentes

cuestionan la eficacia del actual marco de la UE para abordar adecuadamente las

los derechos fundamentales inducidos por el FRT. Aunque los tribunales intenten colmar las lagunas de protección mediante una

interpretación extensiva del marco jurídico preexistente, seguirían existiendo incertidumbres y complejidades jurídicas

seguirían existiendo. 

La Comisión anhela establecer la norma mundial sobre inteligencia artificial

La Comisión Europea cree que su propuesta de Ley de Inteligencia Artificial debe convertirse en la norma mundial si quiere ser plenamente eficaz. El próximo tratado sobre IA que está elaborando el Consejo de Europa podría ayudar a la UE a conseguirlo.

En abril, la Comisión Europea lanzó su propuesta de Ley de Inteligencia Artificial (AIA). Estructurada en torno a un enfoque basado en el riesgo, la normativa introduce obligaciones más estrictas en proporción al impacto potencial de las aplicaciones de IA.

El Comisario Thierry Breton afirmó que «no hay que subestimar la ventaja de que la UE sea la primera en actuar» y subrayó que la UE es el principal «marcapasos» en la regulación del uso de la IA a escala mundial.

En una línea similar, el Director General de Redes de Comunicación, Contenidos y Tecnología de la Comisión, Roberto Viola, dijo que «el equilibrio es clave para tener un enfoque horizontal basado en el riesgo en el que se escuchen muchas voces para evitar el extremismo y crear normas que duren». La normalización de la IA necesita la contribución de países con ideas afines. Estoy seguro de que entonces la Ley de IA se convertirá en una norma mundial».

Una norma para acabar con el capitalismo de la vigilancia – ¡Pánico! en el Consejo – El Reino Unido quiere más innovación en IA

https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-a-standard-to-end-surveillance-capitalism-panic-at-the-council-uk-wants-more-ai-innovation/

Conoce al IEEE 7000. No es un pájaro, un avión o el nuevo humanoide de Elon Musk. Es la primera norma mundial que mostrará a las empresas tecnológicas de forma muy práctica cómo construir tecnología que aporte valor humano y social, en lugar de sólo dinero. El IEEE (pronunciado ojo-triple E) es la mayor asociación de ingeniería del mundo, con más de 400.000 miembros, y tiene mucha importancia en el sector.

AI: Decoded llamó a Sarah Spiekermann, de la Universidad de Economía y Negocios de Viena, que participó en el esfuerzo, para saber más.

Recalibrando la IA: La norma se inspira en el concepto de «ingeniería basada en valores», que hace que las empresas sean conscientes de los retos éticos de la tecnología y les ayuda a dar prioridad al bienestar de los seres humanos. Spiekermann dijo que el modelo de capitalismo de vigilancia neoliberal -conocido por Shoshana Zuboff- ya no funciona. «El mundo está preparado para una nueva forma de hacer las cosas», dijo Spiekermann. «Tenemos que vivir con beneficios razonables en lugar de extraordinarios», continuó.

¿Qué es una «buena» IA? La norma, que ha tardado cinco años en elaborarse, se presentará el 15 de septiembre. Como adelanto, Spiekermann me dice que la IEEE 7000 determinará que una «buena» IA será aquella que dé a las empresas que han externalizado su IA el control sobre la calidad de los datos utilizados en el sistema de IA; los procesos de selección que alimentan la IA; el diseño del algoritmo; la evolución de la lógica de la IA y «las mejores técnicas disponibles para un nivel suficiente de transparencia de cómo la IA está aprendiendo y llegando a sus conclusiones».

No es demasiado tarde: Las empresas tecnológicas, entre ellas Google y Facebook, se han esforzado por promover su visión de la ética de la IA. Spiekermann dijo que su actual trabajo ético puede integrarse en la norma IEEE 7000. Y cuando estas empresas lancen nuevas tecnologías, «pueden utilizar este proceso y vincularlo a una nueva misión, de modo que puedan migrar lentamente fuera del modelo capitalista de vigilancia en el que han estado trabajando», dijo Spiekermann.

ACTO DE INTELIGENCIA ARTIFICIAL

PÁNICO EN EL CONSEJO: Uno de los temas más controvertidos de la Ley de Inteligencia Artificial son sus prohibiciones de usos «inaceptables» de la IA, y en concreto la restricción del uso de la identificación biométrica remota por parte de las fuerzas del orden en lugares públicos. El proyecto de ley no los prohíbe, y permite su uso para luchar contra la delincuencia «grave». Es probable que el Parlamento Europeo impulse una prohibición más estricta. Mientras tanto, el Consejo de la Unión Europea, formado por diplomáticos de los países miembros de la UE, no está tan seguro. Los países de la UE no quieren que Bruselas dicte cuestiones de seguridad nacional, y los ministros de Interior de la UE están en pie de guerra por el intento de la Ley de Inteligencia Artificial de restringir las fuerzas del orden en toda la UE.

Pensar fuera de la caja: Los diplomáticos del Consejo que trabajan en asuntos de interior y seguridad piden un mayor control del proyecto de ley de inteligencia artificial de la UE y su prohibición del reconocimiento facial para las fuerzas del orden en lugares públicos. De hecho, algunos abogan por que las aplicaciones de la IA para el cumplimiento de la ley se separen del proyecto de ley sobre IA y se aborden en una ley aparte. Según un documento obtenido por Laura Kayali de POLITICO, los diplomáticos quieren evaluar si las «diferencias entre los sectores público y privado justifican un marco regulador separado para el uso de sistemas de IA por parte de las fuerzas del orden». Sin duda molestos, los diplomáticos también cuestionaron por qué la IA utilizada por las fuerzas del orden se califica de «alto riesgo», pero los mismos usos por parte del sector privado no. Los activistas de los derechos también cuestionan la misma lógica, pero quieren que las mismas normas se apliquen también a las empresas privadas, a diferencia de los diplomáticos de la UE, que quieren las mismas exenciones.

El caos es una escalera: tener un conjunto de normas diferentes para los ciudadanos y para las fuerzas del orden no es una idea totalmente descabellada. Por ejemplo, el estricto régimen de protección de datos del RGPD no se aplica a las fuerzas del orden, que se rigen por la Directiva de Fuerzas del Orden. Suprimir todas las menciones a las fuerzas del orden de la Ley de Inteligencia Artificial haría que el proyecto de ley fuera más aceptable para los capitales preocupados por la seguridad, y sería una oportunidad para ampliar el alcance de la prohibición de la identificación biométrica remota a las empresas privadas. Por supuesto, esta estrategia requeriría que la Comisión Europea, que redacta las leyes de la UE, aceptara empezar a redactar un proyecto de ley separado para las fuerzas del orden. Sin la bendición de la Comisión, la Ley de IA podría fracasar en uno de sus objetivos principales: proteger a los ciudadanos de la vigilancia biométrica masiva llevada a cabo por el Estado.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Así se arregla la Ley de Inteligencia Artificial de la UE

Si quieres regular algo, tienes que definirlo adecuadamente; si no, estás creando lagunas problemáticas. Desgraciadamente, las definiciones de reconocimiento de emociones (artículo 3.34) y categorización biométrica (artículo 3.35) del actual proyecto de Ley de Inteligencia Artificial de la UE son técnicamente erróneas.

Ambas definiciones se limitan a las aplicaciones de la IA que utilizan datos biométricos, que se definen en el artículo 3(33) en consonancia con su definición en el Reglamento General de Protección de Datos como datos relativos «a las características físicas, fisiológicas o de comportamiento de una persona física, que permiten o confirman la identificación única de dicha persona física.» La pregunta clave aquí es: ¿todos los datos fisiológicos permiten una identificación única?

Crea tu sitio web con WordPress.com
Comenzar