La nueva norma de transparencia de la IA del Reino Unido es un paso más hacia una IA responsable

El gobierno británico anunció la semana pasada una nueva norma de transparencia algorítmica. La medida llega tras un año en el que el programa Test and Trace del Reino Unido podía hacer un ping a tu teléfono en cualquier momento y cancelar tus planes de fin de semana, y cuando los estudiantes salieron a la calle coreando «¡Fuera el algoritmo!» después de que se cancelaran los exámenes y sus admisiones en la universidad fueran decididas por un algoritmo.

La nueva norma pretende empujar a los organismos públicos a crear transparencia sobre cómo, cuándo y dónde se toman las decisiones algorítmicas.

Unmute

Duración 

0:55

/

Hora actual 

0:28

Ajustes avanzados

Pantalla completa

Pausa

Siguiente

El uso de algoritmos para tomar decisiones en los servicios públicos está siendo objeto de un creciente escrutinio en todo el mundo. Recientemente, en el Reino Unido se ha presentado un recurso contra el Ministerio de Trabajo y Pensiones tras revelarse que un algoritmo seleccionaba de forma desproporcionada a personas discapacitadas para una revisión de fraude en las prestaciones. En EE.UU., tras años en los que los investigadores han dado la voz de alarma, los periodistas han reunido la mayor colección de pruebas de que los programas informáticos de predicción de la delincuencia que prometían estar libres de prejuicios raciales en realidad los han perpetuado.

Estos casos suelen sorprender al público y a las comunidades a las que afectan. Una encuesta del Centro para la Ética y la Innovación de los Datos reveló que el 38% del público británico no sabía que se utilizaban sistemas algorítmicos para respaldar las decisiones que utilizan datos personales para, por ejemplo, evaluar el riesgo de que alguien pueda necesitar ayuda de asistencia social. Actualmente, cuando se toma una decisión sobre ti, es muy difícil saber si la toma un humano o un algoritmo.

Ahora mismo, la única manera de saber qué sistemas se utilizan y dónde, es a través de investigaciones de periodistas, organizaciones de la sociedad civil, activistas o investigadores académicos. E incluso entonces, estos investigadores suelen obtener respuestas sólo después de muchas solicitudes de libertad de información (FOI). Se trata de un método lento y engorroso de recopilación de pruebas, con muchas posibilidades de ofuscación y confusión. Los investigadores informan de que obtienen una documentación exhaustiva sobre el uso de Microsoft Word por parte de una autoridad local, que no es precisamente la tecnología de alto riesgo que buscaban.

Incluso entre los departamentos gubernamentales, los organismos públicos y las autoridades locales hay una brecha de conocimiento; a menudo no saben qué sistemas se están utilizando y por qué, y esto impide compartir la información, los beneficios y los daños que apoyarían un ecosistema saludable de progreso consciente del riesgo.

Esta carencia fundamental de información y conocimiento es lo que ha llevado al Instituto Ada Lovelace y a otros a sugerir la creación de registros de transparencia para los sistemas algorítmicos de toma de decisiones del sector público, es decir, los sistemas que utilizan la automatización para tomar decisiones, o que apoyan significativamente a los humanos en la toma de decisiones. Un registro de transparencia reuniría la información sobre los sistemas gubernamentales en un único lugar y de forma clara y accesible, lo que permitiría el escrutinio del público, así como de los periodistas, activistas y académicos que actúan en su nombre.

Los registros de transparencia se están probando en ciudades como Ámsterdam, Helsinki, Nantes y Nueva York, y proporcionan detalles sobre sistemas que van desde los chatbots de atención sanitaria materna hasta los algoritmos para identificar la provisión de viviendas potencialmente ilegales. Estos registros forman parte de una serie de enfoques y políticas diseñados para crear una mayor responsabilidad en el uso de algoritmos en los servicios públicos que están siendo explorados por los gobiernos de todo el mundo, como Canadá, que recientemente introdujo una evaluación de impacto algorítmico para los organismos del sector público.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El nuevo traje de la gobernanza de datos. Cuando los ciudadanos, los consumidores y las partes interesadas no pueden hacer que las instituciones rindan cuentas de sus promesas, hay pocas razones para confiar en ellas

https://www.cigionline.org/articles/data-governances-new-clothes/

El «gobierno» de los datos, sin derechos reales, es una ilusión vergonzosa.

Recientemente, el Servicio Nacional de Salud (NHS) del Reino Unido, a menudo descrito como el orgullo de ese país, recibió el revés legal y de la prensa por una política de compartir la información sanitaria personal de los pacientes con terceros, entre ellos Palantir, una controvertida empresa tecnológica estadounidense. La medida fue lo suficientemente preocupante como para inspirar una demanda, meses de retrasos en la investigación y una protesta de los médicos. Pero, quizá lo más preocupante, es que el Gobierno británico describió su necesidad de confianza y cumplimiento de las leyes de datos, al tiempo que obligaba a los pacientes -probablemente de forma ilegal- a pasar por un enrevesado proceso de «exclusión», en lugar de obtener un consentimiento afirmativo.

La medida centraliza de forma significativa las decisiones sobre la gobernanza y el corretaje de los datos recogidos por los servicios sanitarios del Reino Unido. Crea un nuevo foco de poder potencial y, lo que es más preocupante, es algo que el gobierno tory británico ha estado intentando llevar a cabo durante los últimos ocho años. Al principio, se llamaba Care.data. Entonces fracasó porque no pudo ganarse la confianza del público. Pero las cosas han cambiado. En 2021, con los poderes de emergencia en vigor y una pandemia mundial como cobertura, Westminster está más inclinado a fingir disculpas que a pedir permiso.

Debemos reconocer desde el principio que la gobernanza de los datos es como cualquier diseño: todos los datos se gobiernan. Lo que difiere, de un caso a otro, es el grado de consideración, equidad y responsabilidad con que se hace. Una forma fácil de predecir la popularidad de una nueva tendencia de gobernanza es buscar soluciones que parezcan justas y suenen como tales, pero que no tengan en cuenta de forma significativa la política o el poder. La explotación de la arquitectura de datos para maximizar la influencia privada sobre los servicios públicos, y su huella digital, no sólo está creciendo durante la pandemia de COVID-19; está haciendo cada vez más evidente la facilidad con la que los planes supuestamente benignos para la gestión de datos pueden ser mal utilizados, bajo la apariencia de conferir un beneficio público o un bien social.

Independientemente de que estas iniciativas se centren en el «código abierto», la «tecnología para el bien» o la «infraestructura pública digital», en el fondo suelen recurrir a recursos privilegiados por el público y se invierte en poner un conjunto de servicios, herramientas o derechos de acceso a disposición de un pequeño grupo de personas ya privilegiadas, sin abordar de forma significativa el coste relativo para quienes la tecnología deja fuera. Eso no es nada «bueno».

Y esta división está en la raíz de una importante y creciente brecha en el campo de la gobernanza de los datos, que se está incrustando rápidamente en todos los sistemas que evolucionan para depender de las herramientas y los datos digitales. Como resultado, los proyectos de transformación digital que más dependen de la legitimidad y la confianza del público a menudo traicionan esa confianza. Ofrecen garantías públicas de protección abstracta de la privacidad y la seguridad, mientras que no desarrollan ninguna vía significativa para la aplicación o la justicia. El resultado inevitable es la fragilidad y la injusticia cuando estos sistemas resultan ser defectuosos.

En la práctica, la brecha comienza con la definición del problema. A grandes rasgos, hay dos marcos animadores para los proyectos de gobernanza de datos. El primero es la maximización del valor de los datos: «Estamos generando muchos datos: ¿cómo maximizamos su valor?». El segundo tiene su origen en la resolución de un problema en el contexto: «¿Podemos ayudar a resolver un problema para un grupo de personas con datos o tecnología?» Los enfoques de maximización del valor y de resolución de problemas contextuales para la gobernanza de los datos son intrínsecamente políticos, pero miden y realizan su política de forma muy diferente. La maximización del valor incentiva a los pioneros y a las definiciones amplias de los problemas, al tiempo que minimiza los costes de la diligencia debida, la participación de los titulares de derechos y la responsabilidad. Por el contrario, los enfoques de resolución de problemas contextuales tienden a incentivar la diligencia debida, la colaboración con los titulares de los derechos y la rendición de cuentas, todo lo cual es un coste, si no un obstáculo, para la reutilización de los datos.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Cuando los agentes artificiales mienten, difaman y defraudan, ¿quién tiene la culpa?

La película Robot y Frank imagina un futuro cercano en el que se pueden comprar robots para que actúen como cuidadores y compañeros en casa. El hijo de Frank le compra un robot, y éste no tarda en darse cuenta de que puede contar con su ayuda para cometer robos de gatos. El robot empieza a mostrar creatividad e iniciativa en estos actos delictivos, y Frank sufre demencia. ¿Quién es el responsable último de estas violaciones de la ley?

Los expertos en robótica e inteligencia artificial tendrán que suspender la creencia para disfrutar de Robot y Frank: el robot tiene capacidades que seguirán siendo puramente de ciencia ficción durante algún tiempo. Pero los continuos avances en el campo de la inteligencia artificial hacen que merezca la pena considerar una cuestión provocativa que puede adquirir mayor relevancia práctica en el futuro: ¿Cómo reaccionaríamos, como individuos y como sociedad, ante un agente artificial que participara en la comisión de algún delito civil o penal? Los agentes artificiales de hoy no serían buenos ladrones de gatos, pero tienen el don de la palabra, por lo que es sólo cuestión de tiempo que se les acuse de cometer delitos que impliquen el lenguaje de alguna manera: calumnias, injurias, difamación, soborno, coacción, etc. 

¿Quién debe ser considerado responsable cuando los agentes artificiales incurren en una conducta lingüística que es legalmente problemática? La ley ya describe algunas formas en las que los propietarios y distribuidores de agentes artificiales pueden ser considerados responsables de su mal uso, pero ¿qué ocurrirá cuando estos agentes se hayan adaptado a sus entornos de forma que los haga únicos? Nadie podrá predecir o comprender plenamente sus comportamientos. 

Sospechamos que, en tales situaciones, la sociedad puede a veces querer responsabilizar a los propios agentes de sus acciones. Esto tiene profundas implicaciones para la ley, la tecnología y los usuarios individuales.

Agentes adaptativos y responsabilidad personal

En Robot y Frank, el robot se convierte en un agente único muy rápidamente, ya que aprende sobre Frank y se adapta a sus comportamientos y preferencias. En cambio, los agentes actuales -ya sean constituidos puramente como software o como robots físicos- son en su mayoría entidades genéricas y polivalentes que se comportan de la misma manera con todos los usuarios, a menudo para nuestra frustración. Sin embargo, esto está cambiando rápidamente. Los agentes del futuro próximo serán cada vez más adaptativos. Estos nuevos agentes aprenderán sobre nosotros y calibrarán sus propios comportamientos como respuesta. Ya hemos visto un poco de esto si hemos entrenado a un reconocedor de voz para que nos ayude a dictar, o si hemos programado a un asistente virtual para que reconozca las formas en que nos referimos a las cosas y a las personas de nuestra vida. Esto es sólo el principio. Los avances en IA que se están produciendo ahora mismo están preparando el camino para que los agentes se adapten con flexibilidad a nuestro lenguaje, estados de ánimo, necesidades y hábitos de pensamiento sin ningún esfuerzo especial por nuestra parte.

Lea la historia relacionada: Cómo los grandes modelos lingüísticos transformarán la ciencia y la sociedad

Considere las posibles consecuencias. Cuanto más se adapten a ti los agentes artificiales de tu vida, más se convertirán en algo único: una mezcla muy compleja de su diseño original, las experiencias específicas que han tenido contigo y la forma en que se han adaptado a esas experiencias. En lugar de la eterna pregunta «¿Naturaleza o crianza?», preguntaremos «¿Diseño o experiencia?» cuando observemos que hacen y dicen cosas sorprendentes, e incluso que nos obligan a hacer cosas sorprendentes. Cuando se considere que estas acciones tienen un impacto negativo, nuestro sistema jurídico se verá obligado a preguntar «¿Quién es el responsable?» – una pregunta que puede no tener una respuesta clara. 

Comportamientos inexplicables buenos y malos

Para ver por qué estas preguntas serán tan desafiantes, vale la pena detenerse en la dificultad fundamental de conocer y predecir plenamente el funcionamiento de estos sistemas. Como dice el refrán, son «cajas negras». En comparación, las generaciones anteriores de agentes artificiales eran fáciles de interpretar, ya que eran esencialmente conjuntos gigantes de declaraciones «si/entonces». Si un sistema se comportaba mal, teníamos la esperanza de encontrar las piezas de código que causaban el mal comportamiento. Sin embargo, los sistemas diseñados de este modo nunca fueron capaces de enfrentarse a la complejidad del mundo, lo que los hacía frustrantemente inflexibles y limitados.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La importancia de la responsabilidad en la ética de la IA

La experta en ética de la IA Joanna J Bryson habló con Siliconrepublic.com sobre los retos de la regulación de la IA y por qué hay que seguir trabajando.

A medida que la IA se convierte en una parte más importante de la sociedad, la ética que rodea a esta tecnología requiere un mayor debate, ya que hay que tener en cuenta todos los aspectos, desde la privacidad y la discriminación hasta la seguridad humana.

En los últimos años ha habido varios ejemplos que han puesto de manifiesto los problemas éticos de la IA, como una biblioteca de imágenes del MIT para entrenar la IA que contenía términos racistas y misóginos y el controvertido sistema de puntuación de créditos en China.

En los últimos años, la UE ha dado pasos conscientes para abordar algunos de estos problemas, sentando las bases para una regulación adecuada de la tecnología.

Sus propuestas más recientes revelan planes para clasificar las diferentes aplicaciones de IA en función de sus riesgos. Se introducirán restricciones a los usos de la tecnología que se consideren de alto riesgo, con posibles multas en caso de infracción. Las multas podrían ser de hasta el 6 por ciento de la facturación global o de 30 millones de euros, dependiendo de lo que sea más alto.

Pero la vigilancia de los sistemas de IA puede ser un campo complicado.

Joanna J Bryson es profesora de ética y tecnología en la Hertie School of Governance de Berlín, cuya investigación se centra en el impacto de la tecnología en la cooperación humana, así como en la gobernanza de la IA y las TIC. También es ponente en EmTech Europe 2021, que se celebra actualmente en Belfast, así como en línea.

Bryson es licenciada en psicología e inteligencia artificial por la Universidad de Chicago, la Universidad de Edimburgo y el MIT. Fue durante su estancia en el MIT, en los años 90, cuando empezó a captar realmente la ética en torno a la IA.

«Me di cuenta de que la gente era muy rara con los robots. Pensaban que si el robot tenía forma de persona, tenían una obligación moral con él. Y esto era en el MIT y el robot ni siquiera funcionaba y yo me decía: ‘¿Qué está pasando?

La necesidad de una garantía de IA eficaz

Las tecnologías basadas en datos, como la inteligencia artificial (IA), tienen el potencial de generar beneficios significativos para nuestra economía y nuestra sociedad. Sin embargo, también introducen riesgos que deben gestionarse.

A medida que estas tecnologías se adoptan más ampliamente, existe una necesidad cada vez mayor de que una variedad de actores, incluidos reguladores, desarrolladores, ejecutivos y usuarios de primera línea, verifiquen que estas herramientas estén funcionando como se espera, de una manera que cumpla con los estándares (incluyendo regulación), y para demostrarlo a otros. Sin embargo, estos actores a menudo tienen información limitada o carecen del conocimiento especializado adecuado para garantizar que los sistemas de IA sean confiables. Para abordar esta brecha de información, se requiere un ecosistema de garantía de IA eficaz.

La garantía como servicio se basa originalmente en la profesión contable, pero desde entonces se ha adaptado para cubrir muchas áreas, como la seguridad cibernética y la gestión de la calidad. En estas áreas, los ecosistemas maduros de productos y servicios de aseguramiento permiten que las personas comprendan si los sistemas son confiables. Estos productos y servicios incluyen: estándares técnicos y de proceso; auditorías repetibles; esquemas de certificación; servicios de asesoramiento y formación.

Este ecosistema está surgiendo para la IA, con una variedad de empresas que comienzan a ofrecer servicios de garantía. Se han propuesto varias técnicas de garantía posibles y los reguladores están comenzando a establecer cómo se puede garantizar la IA (por ejemplo, el Marco de auditoría de la ICO para la IA). Sin embargo, este ecosistema está actualmente fragmentado y ha habido varios pedidos para una mejor coordinación, incluso del Comité de Normas en la Vida Pública. Nuestra revisión publicada recientemente sobre el sesgo en la toma de decisiones algorítmicas también señaló la necesidad de un ecosistema de estándares de la industria y servicios profesionales para ayudar a las organizaciones a abordar el sesgo algorítmico en el Reino Unido y más allá.

RECONOCIMIENTO FACIAL Y DERECHOS HUMANOS: ¿CUÁL ES EL PAPEL DE LOS INVERSORES RESPONSABLES?

https://www.candriam.com/en/professional/market-insights/topics/sri/facial-recognition-and-human-rights-what-is-the-role-of-responsible-investors/

Natural, Fácil, Rápido, Automático, Rentable …..

Muchos de nosotros damos la bienvenida a la tecnología facial. Mejora la eficiencia y la seguridad. Lo usamos para desbloquear teléfonos inteligentes de alta gama y para pasar más rápidamente por los aeropuertos. Si bien solo ahora comienza a ser ampliamente utilizada, la tecnología de reconocimiento facial (FRT) ha estado en desarrollo durante décadas.

…. pero ¿son los derechos humanos un costo oculto?

La inversión responsable es más que reaccionar ante los riesgos y problemas que enfrentamos hoy. Es más que «verde» y clima. Es el reconocimiento del papel de las finanzas en la sociedad.

La tecnología nos ha brindado algunos beneficios maravillosos y algunas inversiones maravillosas. Durante el año reciente de distanciamiento pandémico, la tecnología permitió que muchas familias se comunicaran sin contacto, que muchos profesionales trabajaran a distancia e incluso expandió la atención médica sin contacto a través de la telemedicina.

La tecnología de reconocimiento facial en su forma actual carece del consentimiento de los fotografiados y carece de supervisión oficial. En muchos casos, estamos bajo vigilancia FRT sin nuestro conocimiento. La identificación errónea es mucho más frecuente de lo que cabría esperar y ocurre de manera más sistemática entre ciertos grupos étnicos.

La identificación errónea va en aumento y ha dado lugar a detenciones falsas. En 2019, la ciudad estadounidense de San Francisco, el lugar de nacimiento del reconocimiento facial, prohibió su uso en la aplicación de la ley. Poco después, varias grandes empresas de tecnología anunciaron una moratoria de un año en la venta de sus productos FRT.

¿Cuáles son las controversias?

La falta de permiso, la falta de supervisión, la tasa de error y los prejuicios raciales y de género en las identificaciones erróneas se encuentran entre las controversias que deben aclararse. Los inversores deben hacer las preguntas antes de que intentemos determinar las direcciones.

¿Porqué ahora?

Se estima que hay mil millones de cámaras de vigilancia en funcionamiento [i]. Se calcula [ii] que China tiene una cámara por cada 2,3 ciudadanos y que Estados Unidos tiene una por cada 2,4 ciudadanos. Los Principios Rectores de las Naciones Unidas sobre Empresas y Derechos Humanos (PRNU) instan a las empresas a respetar los derechos humanos y corregir los abusos cuando ocurren. Piden a las empresas que realicen la debida diligencia en materia de derechos humanos para “conocer y demostrar” que respetan los derechos humanos a través de sus propias actividades y las actividades directamente vinculadas a sus productos, servicios, operaciones ya través de sus relaciones comerciales.

Como inversores, Candriam comprende las responsabilidades de los gobiernos y las autoridades de aprovechar los beneficios de FRT, respetando los derechos humanos fundamentales. También entendemos que los inversores pueden ayudar a asignar capital. Lo invitamos a comentar sobre nuestra propuesta de Declaración del inversor y a unirse a nosotros para realizar la debida diligencia en las empresas en las que invertimos, como parte de nuestro respeto general por los derechos humanos.

Robótica responsable y atribución de responsabilidad

https://link.springer.com/chapter/10.1007/978-3-030-54173-6_20

Este documento destaca la centralidad de la responsabilidad humana como base necesaria para establecer políticas y regulaciones claras sobre robótica; responsabilidad no por parte del hardware o software de un robot, sino por parte de los humanos detrás de las máquinas, aquellos que investigan y desarrollan robótica. En pocas palabras, necesitamos una robótica responsable. La robótica responsable es un término que se ha «puesto de moda» recientemente, pero aún se está desarrollando una comprensión de lo que significa la robótica responsable. A la luz de la complejidad del desarrollo (es decir, las muchas manos involucradas) y la novedad del desarrollo de robots (es decir, pocas juntas reguladoras establecidas para garantizar la responsabilidad), es necesario establecer procedimientos para asignar responsabilidades futuras entre los actores involucrados en la Desarrollo e implementación. Las tres leyes alternativas de la robótica responsable de Murphy y Wood juegan una contribución formidable a la discusión; sin embargo, repiten la dificultad que introdujo Asimov, es decir, las leyes en general, ya sean para el robot o para el robotista, son incompletas cuando se ponen en práctica. La propuesta aquí es extender las tres leyes alternativas de la robótica responsable a un marco más sólido para la atribución de responsabilidades como parte del objetivo de la robótica responsable. Este marco requiere hacer explícitos varios factores: el tipo de robot, la etapa de desarrollo del robot, el sector de uso previsto y la forma de adquisición del robot. Teniendo esto en cuenta, se debe considerar cuidadosamente el alcance de la cuestión ética en cuestión y determinar el tipo de responsabilidad atribuida a dicho actor (s).

Segunda Asamblea de la Alianza Europea de IA

 Esta reunión trató sobre:

  • el Ecosistema de confianza
  • COVID-19
  • Sector público
  • Identificación Biométrica
  • IA y Responsabilidad
  • Evaluación de conformidad

https://futurium.ec.europa.eu/en/european-ai-alliance/document/2nd-european-ai-alliance-assembly-event-report

Crea tu sitio web con WordPress.com
Comenzar