El dolor pandémico está alimentando el realismo robótico

https://pando.com/2021/03/26/pandemic-pain-fueling-robo-realism/

La columnista del Financial Times Sarah O’Connor escribió recientemente el tipo de reflexión impulsada por la humildad que deseo que impregne la cobertura tecnológica. Ella comienza «Por qué me equivoqué al ser optimista acerca de los robots» con una confesión que no sorprenderá a nadie empapado en economía política, pero sin embargo es una dosis refrescante y honesta de realismo del cuarto poder.

«Solía ​​ser un tecno-optimista», declara O’Connor. Pero ahora las tendencias de la robótica impulsadas por la pandemia se están enfocando, y es más difícil negar el poder aplastante del idealismo del capitalismo. O’Connor reconoce que «la deshumanización y la intensificación del trabajo» son peligros fundamentales.

Si bien no hay nada garantizado, la pandemia de coronavirus parece un punto de inflexión para el trabajo robótico

Para empezar, el peligro de una infección viral está estimulando el crecimiento de robots móviles que pueden desinfectar superficies. Esta medida no será temporal.

Cuando la historiadora Ruth Schwarz Cowan estudió cómo la introducción de dispositivos como lavadoras y aspiradoras afectó al hogar estadounidense promedio desde la década de 1960 hasta la de 1980, descubrió que la automatización de más aspectos de las tareas no cambiaba realmente la cantidad de trabajo no remunerado que realizaban las amas de casa en comparación con sus predecesores a principios del siglo XX. ¿Por qué estas máquinas asequibles y fáciles de usar no eran ejemplos ideales de automatización? En parte, se debe a que cambiaron los estándares sociales de limpieza. «Armadas con una aspiradora», escribió el historiador, «las amas de casa cuyos padres habían sido pobres podían mantener más espacio más limpio de lo que sus madres y abuelas hubieran creído posible».

Avanza hasta el día de hoy. Michael Kosla, vicepresidente de LG Business Solutions USA, afirma que los robots desinfectantes brindan a las personas «tranquilidad». Él predice que «Un mayor nivel de desinfección se convertirá en la nueva expectativa del cliente en la nueva economía sin contacto donde ahora todos vivimos, trabajamos, aprendemos y jugamos».

Más robots de limpieza es solo el comienzo. ¿Los problemas pandémicos como el aumento del aislamiento conducirán a una mayor adopción de robots sociales? David Hanson, fundador y jefe de robótica de Hanson, la empresa que fabrica el controvertido robot humanoide Sophia, quiere que pensemos que sí. Afirma que los robots similares a los humanos «pueden ser muy útiles en estos tiempos en los que la gente se siente terriblemente sola». Si bien el tiempo dirá si tiene razón, otras tendencias robóticas se han solidificado. Como señala O’Connor, la mayor demanda de comercio en línea ya impulsó a la industria a responder automatizando aún más la mano de obra del almacén. Gap Inc., por ejemplo, está invirtiendo en clasificadores robóticos y sistemas de almacenamiento y recuperación. Los analistas predicen que «el mercado global de automatización de almacenes aumentará de $ 15 mil millones en 2019 a $ 30 mil millones en 2026».

Si bien el potencial de efectos de bloqueo acompaña a cualquier inversión tecnológica significativa, los futuristas como P.W. Singer advierte que la devastación económica generalizada experimentada durante la pandemia afectará la cantidad de empresas que gestionan el riesgo a largo plazo. Cuando le pregunté a Singer si es razonable esperar que el fin de la pandemia signifique un regreso a la normalidad, confirmó mi sospecha de que esas esperanzas son ilusiones. “Los líderes empresariales ya están pensando en la próxima pandemia”, respondió. Para evitar, o al menos ser menos interrumpido por eventos futuros que predeciblemente evitarán que los humanos enfermos y asustados vengan a trabajar, Singer cree que los emprendedores ven la sabiduría en un imperativo draconiano: “automatizar la mayor cantidad de fuerza laboral posible”.

Aquí está el resultado final, empresarial, para llevar de la pandemia …

Los robots son buenos porque no pueden atrapar COVID-19 y no se reportan enfermos. Los robots son buenos porque pueden ser continuamente productivos sin quejarse del trabajo repetitivo y las largas horas. Y los robots son buenos porque, incluso durante una crisis, no pedirán beneficios ni intentarán sindicalizarse.

O’Connor no está desilusionado simplemente porque la sociedad se está volviendo más dependiente del trabajo robótico. Después de todo, los debates sobre los avances en la automatización que llevan a que los humanos se vuelvan descalificados y desempleados han estado ocurriendo durante bastante tiempo. Y discusiones más recientes, pero aún conocidas, aclaran por qué los trabajos manuales y de cuello blanco por igual pueden ser vulnerables a ser reemplazados.

Pero incluso con todas las razones para preocuparse por los robots en el trabajo, existe la esperanza de un futuro en el que los robots y los humanos colaboren y creen una sinergia en función de sus respectivas fortalezas. De hecho, en el brillante libro del profesor de derecho Frank Pasquale, New Law of Robotics: Defending Human Expertise in the Age of AI, sostiene que para que los humanos tengan un futuro colectivamente próspero, «los sistemas robóticos y la inteligencia artificial deben complementar a los profesionales, no reemplazarlos».

Desafortunadamente, algunas de las colaboraciones entre humanos y robots que están ocurriendo ahora están lejos de ser ideales.

O’Connor señala que, si bien los robots de Amazon evitan que los trabajadores del almacén caminen llevándoles estantes, permanecer inmóviles durante un período prolongado puede ser difícil para el cuerpo humano. Instituir este tipo de flujo de trabajo robot-humano

Ética como servicio: una operacionalización pragmática de la ética de la IA

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3784238

A medida que ha aumentado la gama de usos potenciales de la inteligencia artificial (IA), en particular el aprendizaje automático (ML), también lo ha hecho la conciencia de los problemas éticos asociados. Esta mayor conciencia ha llevado a la comprensión de que la legislación y la reglamentación existentes brindan una protección insuficiente a las personas, los grupos, la sociedad y el medio ambiente de los daños de la IA. En respuesta a esta constatación, ha habido una proliferación de códigos, directrices y marcos de ética basados ​​en principios. Sin embargo, cada vez está más claro que existe una brecha significativa entre la teoría de los principios éticos de la IA y el diseño práctico de los sistemas de IA. En trabajos anteriores, analizamos si es posible cerrar esta brecha entre el «qué» y el «cómo» de la ética de la IA mediante el uso de herramientas y métodos diseñados para ayudar a los desarrolladores, ingenieros y diseñadores de IA a llevar los principios a la práctica. Concluimos que este método de cierre es actualmente ineficaz ya que casi todas las herramientas y métodos de traducción existentes son demasiado flexibles (y por lo tanto vulnerables al lavado ético) o demasiado estrictos (no responden al contexto). Esto planteó la pregunta: si, incluso con orientación técnica, la ética de la IA es un desafío para integrarla en el proceso de diseño algorítmico, ¿se vuelve inútil todo el esfuerzo de diseño pro-ético? Y, en caso negativo, ¿cómo se puede hacer que la ética de la IA sea útil para los profesionales de la IA? Esta es la pregunta que buscamos abordar aquí explorando por qué los principios y las herramientas técnicas de traducción siguen siendo necesarios, incluso si son limitados, y cómo estas limitaciones pueden superarse potencialmente proporcionando una base teórica de un concepto que se ha denominado ‘Ética como servicio. .

¿Un estrechamiento de la investigación de la IA?

https://arxiv.org/abs/2009.10385

La inteligencia artificial (IA) está siendo aclamada como el último ejemplo de tecnología de uso general que podría transformar la productividad y ayudar a abordar importantes desafíos sociales. Sin embargo, este resultado no está garantizado: un enfoque miope en los beneficios a corto plazo podría encerrar a la IA en tecnologías que resulten ser subóptimas a largo plazo. Las controversias recientes sobre el predominio de los métodos de aprendizaje profundo y los laboratorios privados en la investigación de IA sugieren que el campo puede ser cada vez más limitado, pero falta la base de evidencia. Buscamos abordar esta brecha con un análisis de la diversidad temática de la investigación de IA en arXiv, un sitio de preimpresiones ampliamente utilizado. Habiendo identificado 110,000 artículos de IA en este corpus, usamos el modelado de temas jerárquicos para estimar la composición temática de la investigación de IA, y esta composición para calcular varias métricas de diversidad de investigación. Nuestro análisis sugiere que la diversidad en la investigación de IA se ha estancado en los últimos años y que la investigación de IA que involucra a organizaciones del sector privado tiende a ser menos diversa que la investigación en el mundo académico. Esto parece estar impulsado por un pequeño número de empresas de tecnología prolíficas y con un enfoque limitado. La diversidad en el mundo académico se ve reforzada por instituciones más pequeñas y grupos de investigación que pueden tener menos incentivos para la raza y menores niveles de colaboración con el sector privado. También encontramos que los investigadores de IA del sector privado tienden a especializarse en datos y métodos de aprendizaje profundo computacionalmente intensivos a expensas de la investigación que involucra otros métodos de IA (simbólicos y estadísticos) y de la investigación que considera las implicaciones sociales y éticas de la IA o la aplica en dominios como salud. Nuestros resultados sugieren que puede haber una justificación para la acción política para prevenir un estrechamiento prematuro de la investigación de la IA que podría reducir sus beneficios sociales, pero notamos los obstáculos de incentivos, información y escala que se interponen en el camino de tales intervenciones.

Asegurar que los modelos estadísticos generen confianza pública

https://osr.statisticsauthority.gov.uk/publication/ensuring-statistical-models-command-public-confidence/

Aprender lecciones del enfoque para desarrollar modelos para otorgar calificaciones en el Reino Unido en 2020
Resumen ejecutivo
Objeto de este informe
En marzo de 2020, los ministros responsables de la educación en Inglaterra, Escocia, Gales e Irlanda del Norte anunciaron el cierre de escuelas como parte de la respuesta del Reino Unido al brote de coronavirus. Posteriormente, otros anuncios del gobierno confirmaron que no se llevarían a cabo exámenes públicos en el verano de 2020.

Los cuatro reguladores de calificaciones del Reino Unido: Ofqual (Inglaterra), Scottish Qualifications Authority (Escocia), Qualifications Wales (Gales) y el Consejo para el Currículo, los Exámenes y la Evaluación (Irlanda del Norte), recibieron instrucciones de sus respectivos gobiernos para supervisar el desarrollo de un enfoque para otorgar calificaciones en ausencia de exámenes. Si bien los enfoques adoptados fueron diferentes, todos los enfoques involucraron algoritmos estadísticos.

Cuando se publicaron las calificaciones en agosto de 2020, hubo una insatisfacción pública generalizada centrada en cómo se habían calculado las calificaciones y el impacto en la vida de los estudiantes. Las calificaciones en los cuatro países se volvieron a emitir en función de las calificaciones que las escuelas y universidades habían presentado originalmente como parte del proceso para calcular las calificaciones.

La aceptabilidad pública de los algoritmos y modelos estadísticos no había sido un tema tan importante para tantas personas antes, a pesar del aumento en su uso. Como regulador de las estadísticas oficiales en el Reino Unido, nuestro papel es mantener la confianza del público en las estadísticas.

Los modelos y algoritmos estadísticos utilizados por el gobierno y otros organismos públicos son una parte cada vez más frecuente de la vida contemporánea. A medida que aumenta la tecnología y la disponibilidad de datos, el uso de este tipo de modelos en el sector público genera importantes beneficios.

Nos preocupa que los organismos públicos estén menos dispuestos a utilizar modelos estadísticos para respaldar decisiones en el futuro por temor a una reacción de aceptabilidad pública, lo que podría obstaculizar la innovación y el desarrollo de estadísticas y reducir el bien público que pueden ofrecer. Esto se ilustra por el énfasis puesto en no usar algoritmos durante las discusiones sobre cómo se otorgarán las calificaciones en 2021 luego de la cancelación de los exámenes de este año. Por ejemplo, el Secretario de Estado de Educación, al delinear el enfoque para otorgar calificaciones en enero de 2021, declaró que “Este año, confiaremos en los maestros en lugar de en los algoritmos”. [1]

Por lo tanto, es importante que se aprendan lecciones para el gobierno y otros organismos públicos que deseen utilizar modelos estadísticos para respaldar sus decisiones. Esta revisión identifica lecciones para el desarrollo de modelos para respaldar la confianza pública en modelos y algoritmos estadísticos en el futuro.

Una IA descubre racismo involuntario en una prueba médica estándar

En los últimos años, distintas investigaciones han demostrado que el aprendizaje profundo puede igualar el desempeño de expertos humanos a la hora de interpretar imágenes médicas para la detección temprana del cáncer y el diagnóstico de enfermedades oculares. Pero también hay motivos para la cautela. Otra investigación ha señalado que el aprendizaje profundo tiende a perpetuar la discriminación. Si el sistema de atención médica ya está plagado de disparidades, las apps de aprendizaje profundo hechas sin cuidado podrían empeorar aún más la situación.

Un nuevo artículo publicado en Nature Medicine propone una forma de desarrollar algoritmos médicos capaz de ayudar a revertirla desigualdad existente, en lugar de exacerbarla. Según el profesor asociado de la Universidad de California en Berkeley (EE. UU.) que supervisó la investigación, Ziad Obermeyer, la clave es dejar de entrenar los algoritmos con el objetivo de que igualen el desempeño de los expertos humanos.

El artículo analiza un ejemplo clínico específico de las diferencias que existen en el tratamiento de la osteoartritis de rodilla, una enfermedad que causa dolor crónico. Evaluar el nivel de dolor ayuda a los médicos a prescribir el tratamiento adecuado, que puede incluir fisioterapia, medicamentos y cirugía. Esto lo suele llevar a cabo un radiólogo que revisa una radiografía de la rodilla y califica el dolor del paciente en la escala de Kellgren-Lawrence (KLG), que calcula los niveles de dolor en función de la presencia de diferentes características radiográficas, como el grado de la pérdida de cartílago o el daño estructural.

Pero los datos recopilados por el Instituto Nacional de Salud de EE. UU. han encontrado que los médicos que utilizan este método puntúan sistemáticamente el dolor de los pacientes negros en una medida mucho menos grave de lo que ellos mismos aseguran estar experimentando.

Los pacientes informan de sus niveles de dolor mediante un cuestionario en el que se les pregunta cuánto les duele al realizar distintas acciones, como enderezar completamente la rodilla. Pero los niveles de dolor manifestados por los propios pacientes tienen menos peso que la puntuación KLG que emite el radiólogo para prescribir el tratamiento. En otras palabras, los pacientes de raza negra que muestran la misma cantidad de pérdida de cartílago que los pacientes de raza blanca manifiestan niveles más altos de dolor.

Esto es algo que lleva tiempo incomodando a los expertos médicos. Una de sus hipótesis consistía en que los pacientes de raza negra podrían estar expresando niveles más altos de dolor para que los médicos los traten con mayor seriedad. Pero hay una explicación alternativa. La propia metodología KLG podría estar sesgada, ya que se desarrolló hace varias décadas con poblaciones británicas blancas.

https://www.technologyreview.es/s/13102/una-ia-descubre-racismo-involuntario-en-una-prueba-medica-estandar

Por qué cobrar por sus datos es un mal negocio

 Una mala idea de privacidad que no morirá es el llamado «dividendo de datos», que imagina un mundo en el que las empresas tienen que pagarle para usar sus datos.

¿Suena demasiado bueno para ser verdad? Es.

Seamos claros: que te paguen por tus datos (probablemente no más de un puñado de dólares como máximo) no solucionará el problema actual de la privacidad. Sí, un dividendo de datos puede sonar a primera vista como una forma de obtener algo de dinero extra y destinarlo a las empresas de tecnología. Pero esa línea de pensamiento está equivocada y se desmorona rápidamente cuando se aplica a la realidad actual de la privacidad. En realidad, el esquema de dividendos de datos perjudica a los consumidores, beneficia a las empresas y enmarca la privacidad como una mercancía más que como un derecho.

https://www.eff.org/it/deeplinks/2020/10/why-getting-paid-your-data-bad-deal

Crea tu sitio web con WordPress.com
Comenzar