Diseña un sitio como este con WordPress.com
Comenzar

¿Quién quiere conceder derechos a los robots?

https://www.frontiersin.org/articles/10.3389/frobt.2021.781985/full

El debate sobre los derechos de los robots se ha desarrollado hasta ahora sin datos fiables sobre la opinión pública acerca de los robots y los derechos que deberían tener. Hemos administrado una encuesta en línea (n = 439) que investiga las actitudes de los legos hacia la concesión de determinados derechos a los robots. Además, les hemos preguntado las razones por las que están dispuestos a concederles esos derechos. Por último, hemos administrado las percepciones generales de los robots en cuanto a apariencia, capacidades y rasgos. Los resultados muestran que los derechos pueden dividirse en dimensiones sociopolíticas y robóticas. Las razones pueden distinguirse en las dimensiones de cognición y compasión. En general, las personas tienen una opinión positiva sobre las capacidades de interacción de los robots. Descubrimos que la gente está más dispuesta a conceder derechos básicos a los robots, como el acceso a la energía y el derecho de actualización, que derechos sociopolíticos, como el derecho de voto y el derecho a la propiedad. Las actitudes hacia la concesión de derechos a los robots dependen de las capacidades cognitivas y afectivas que la gente cree que los robots poseen o poseerán en el futuro. Nuestros resultados sugieren que el debate sobre los derechos de los robots se beneficiaría enormemente de una comprensión común de las capacidades potenciales de los futuros robots.

1 Introducción

Los seres humanos tienen derechos inalienables que se especifican en la Declaración Universal de los Derechos Humanos. Pero otras entidades también pueden tener derechos. Se suele considerar que los animales tienen derechos morales (Regan, 2004). Y las organizaciones tienen derechos legales, incluido el derecho a la propiedad y a celebrar contratos (Ciepley, 2013). ¿Pero qué pasa con los robots? ¿Deben tener derechos? Las personas infieren espontáneamente la intencionalidad y la mente cuando se encuentran con robots, lo que demuestra que las personas tratan cognitivamente a los robots como agentes sociales (de Graaf y Malle, 2019). Pero, ¿tienen los robots una posición moral, como los humanos y los animales? ¿O simplemente tienen derechos legales, al igual que las organizaciones?

Los agentes pueden tener una posición moral como pacientes morales. Por ejemplo, los animales son pacientes morales porque pueden sufrir. En términos más generales, un paciente moral es un agente que puede ser perjudicado (Gunkel, 2012). Si los pacientes morales tienen derechos, estos sirven para protegerlos de tales agravios. Los agentes también pueden tener una posición moral como agentes morales. Los seres humanos son personas morales, porque son racionales y porque ciertas cosas les importan. Algunos de sus derechos les permiten o posibilitan desarrollarse o vivir el tipo de vida que valoran. El debate sobre los derechos de los robots suele enmarcarse en términos de paciencia moral (Gunkel, 2018). Esto sugiere que están destinados a evitar que otros hagan daño a los robots.

Una tercera alternativa ha sido propuesta por Gunkel (2012), Gunkel (2018) y Coeckelbergh (2010), Coeckelbergh (2021), que defienden un enfoque socio-relacional de los derechos de los robots. La paciencia moral y la condición de persona son propiedades de los agentes. Según el enfoque socio-relacional, la posición moral de los robots depende, en cambio, de las relaciones sociales entre los humanos y los robots. En lugar de definirse por sus atributos, el estatus moral de un robot debería basarse en las respuestas sociales de las personas a los robots (Gunkel, 2018), en cómo se relacionan las personas con ellos y en el valor que tienen para los humanos (Coeckelbergh, 2021). A la luz de esto, el enfoque social-relacional puede considerarse centrado en el ser humano. Se trata de un avance interesante, sobre todo porque los robots no pueden sufrir y no valoran las cosas, lo que hace problemático concederles derechos en función de sus propiedades intrínsecas.

La ley trata a las organizaciones como personas jurídicas. A menudo se dice que esta noción de persona jurídica es una ficción legal porque las organizaciones no son realmente personas. Debido a esta ficción jurídica, se les pueden conceder derechos legales. Estos derechos protegen los intereses de los seres humanos. A los robots se les pueden conceder derechos legales por la misma razón, pero esto significaría que tenemos que considerarlos como personas legales. Sin embargo, la idea de los derechos legales de los robots también ha sido objeto de controversia.

En 2016, la Comisión de Asuntos Jurídicos de la UE sugirió que «los robots autónomos más sofisticados» pueden tener «el estatus de personas electrónicas con derechos y obligaciones específicos.» Esta comisión solicitó un estudio sobre las futuras normas de derecho civil para la robótica. Este estudio fue encargado, supervisado y publicado por el «Departamento de Política para los Derechos de los Ciudadanos y Asuntos Constitucionales»,1 y dio lugar a una resolución del Parlamento.2 El estudio tenía como objetivo evaluar y analizar una serie de futuras normas de derecho civil europeo en materia de robótica desde una perspectiva jurídica y ética. En una carta abierta, una coalición de políticos, investigadores de IA/robótica, líderes de la industria, especialistas en salud y expertos en derecho y ética expresaron su preocupación al respecto.3 Les preocupaba en particular el llamamiento a la Comisión de la UE para que estudiara las implicaciones de crear un estatuto jurídico específico para los robots que abordara cuestiones relacionadas, por ejemplo, con los daños que pudieran causar los robots.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Anuncio publicitario

Estatus Moral y robots inteligentes

https://doi.org/10.1111/sjp.12450

Resumen

Los grandes logros tecnológicos de los últimos tiempos en materia de inteligencia artificial (IA), robótica e informática hacen que, según muchos expertos en la materia, sea muy probable que veamos la llegada de robots inteligentes y autónomos que igualen o superen las capacidades humanas a medio (dentro de los próximos 50 años) o largo plazo (dentro de los próximos 100-300 años). Por ello, este artículo tiene dos objetivos principales. En primer lugar, se discuten algunos de los problemas relacionados con la atribución de un estatus moral a los robots inteligentes y se examinan tres enfoques filosóficos -el enfoque kantiano, el enfoque relacional y el enfoque de los deberes indirectos- que se utilizan actualmente en la ética de las máquinas para determinar el estatus moral de los robots inteligentes. En segundo lugar, tratamos de sensibilizar a los filósofos morales sobre los importantes debates de la ética de las máquinas que acabarán afectando a la forma en que concebimos los conceptos y enfoques clave de la ética y la filosofía moral. Los efectos de los robots inteligentes y autónomos en nuestras teorías y conceptos éticos y morales tradicionales serán sustanciales y nos obligarán a revisar y reconsiderar muchas concepciones establecidas. Por lo tanto, es esencial prestar atención a los debates sobre la ética de las máquinas ahora para que podamos estar mejor preparados para responder a las oportunidades y desafíos del futuro.

Inteligencia incorporada en la robótica blanda mediante la multifuncionalidad del hardware

https://www.frontiersin.org/articles/10.3389/frobt.2021.724056/full

La comunidad de la robótica blanda se pregunta actualmente cuál es el futuro de la misma. Por ello, es muy importante identificar las direcciones en las que la comunidad debe centrar sus esfuerzos para consolidar su impacto. La identificación de aplicaciones convincentes es una prioridad, especialmente para demostrar que algunos logros ya representan una alternativa atractiva a los enfoques tecnológicos actuales en escenarios específicos. Sin embargo, la mayor parte del valor añadido de la robótica blanda sólo se ha captado teóricamente. La inteligencia incorporada, que es uno de estos principios teóricos, representa un enfoque interesante para explotar plenamente el potencial de la robótica blanda, pero la aplicación pragmática de esta teoría sigue siendo difícil y muy limitada. Un enfoque de diseño diferente podría ser beneficioso, es decir, la integración de un cierto grado de adaptabilidad continua en las funcionalidades de hardware del robot, es decir, un diseño «flexible» habilitado por componentes de hardware capaces de cumplir múltiples funcionalidades. En este artículo se presenta este concepto de diseño flexible junto con sus principales elementos tecnológicos y teóricos básicos. El potencial del enfoque se demuestra mediante una comparación biológica y la viabilidad se apoya en ejemplos prácticos con tecnologías de vanguardia.

Introducción

El uso generalizado de las tecnologías de robótica blanda está poniendo de manifiesto la necesidad de un enfoque diferente en el diseño de sistemas y subsistemas que puedan beneficiarse de las propiedades de las partes blandas del cuerpo para lograr algo específico. Una peculiaridad que desempeña un papel clave en el uso de materiales blandos o conformes es su comportamiento mecánico altamente no lineal. Esto introduce complejidad en el modelado y la usabilidad, pero también representa una notable fuente de riqueza de comportamiento. La importancia de las características corporales es también fundamental en la nueva interpretación de la Inteligencia Artificial denominada Inteligencia Corporal (IE). Según esta teoría, el cuerpo de un agente desempeña un papel fundamental a la hora de simplificar las tareas y hacer surgir comportamientos adaptativos a través de la interacción con el entorno (Pfeifer y Bongard, 2007). El cuerpo puede servir como medio de computación (Morphological Computation) y la forma en que afecta a las interacciones con el entorno viene determinada por tres aspectos fundamentales: las propiedades materiales, la forma y la disposición de sus componentes. Sin embargo, la forma de aplicar pragmáticamente los principios de la IE sigue siendo esquiva. Así, por un lado, el desarrollo tecnológico de los componentes mecatrónicos blandos está avanzando, aumentando la explotación de todas las ventajas que se derivan de la suavidad y la conformidad intrínsecas (como se muestra en el breve estado de la técnica recogido en The Long Way Ahead for Soft Mechatronics Development, que también sienta las bases tecnológicas del artículo). Por otro lado, estas tecnologías son necesarias pero pueden no ser suficientes para crear un impacto transformador. La IE representa un atractivo paradigma de diseño para los sistemas robóticos blandos, pero sigue siendo difícil de aplicar. Un paso adelante puede estar representado por un enfoque de diseño diferente: no describir formalmente y seguir las reglas de diseño para aplicar los principios de la IE a priori, sino más bien incorporar elementos y herramientas básicos con un enfoque de diseño «flexible» (introducido en Embodied Intelligence by Flexible Design), y dejar que el sistema evolucione y adapte sus funcionalidades corporales para explotar los principios de la IE a través de la interacción directa con el entorno. Esta evolución y adaptación de las funcionalidades corporales puede no implicar necesariamente un cambio de hardware, ya que las tecnologías mecatrónicas blandas demostraron la posibilidad de cumplir múltiples funcionalidades, dependiendo de sus condiciones de conducción (los detalles y ejemplos se recogen en Hardware Multifunctionality). Estos tres elementos (mecatrónica blanda – El largo camino por delante para el desarrollo de la mecatrónica blanda, la IE a través del diseño flexible – Inteligencia corporal mediante el diseño flexible y la multifuncionalidad – Multifuncionalidad del hardware) pueden combinarse para esbozar un nuevo enfoque de diseño (analizado en el debate) que es capaz de explotar prospectivamente la IE sin describir formalmente las reglas/directrices de diseño.

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Podemos equivocarnos con un robot?

https://link.springer.com/article/10.1007/s00146-021-01278-x

Con el desarrollo de robots sociables cada vez más sofisticados, las relaciones entre robots y humanos se están transformando. Los robots sociables no sólo pueden proporcionar apoyo emocional y compañía a los humanos, sino que éstos también pueden establecer relaciones con los robots que valoran mucho. Es natural preguntarse si los robots que mantienen relaciones estrechas con nosotros tienen algún valor moral más allá de su valor puramente instrumental como medios para los fines humanos. Podríamos plantear nuestra pregunta de la siguiente manera: «¿Existen formas de actuar hacia los robots que serían incorrectas para el robot?». Para abordar esta cuestión, la Parte I expone los enfoques estándar de la posición moral: apelar a las propiedades intrínsecas, a las respuestas humanas y a los valores inherentes a las relaciones. La segunda parte explora en detalle la tercera estrategia, la relacional. Más allá de los análisis occidentales, considera la filosofía oriental y la filosofía medioambiental de la «ecología profunda» y extiende estos enfoques a los robots sociables. La parte III examina las implicaciones prácticas del caso de Samantha, una robot sexual que supuestamente fue violada. La parte IV identifica y responde a las objeciones.

La evolución de los robots: Problemas éticos

Los rápidos avances en la computación evolutiva, la robótica, la impresión en 3D y la ciencia de los materiales están haciendo posible sistemas avanzados de robots que pueden reproducirse y evolucionar de forma autónoma. La tecnología emergente de la evolución de los robots supone un reto para la ética de la IA, ya que la adaptabilidad, la estocasticidad y la complejidad inherentes a los sistemas evolutivos debilitan gravemente el control humano e inducen nuevos tipos de peligros. En este artículo abordamos la cuestión de cómo puede controlarse responsablemente la evolución de los robots para evitar riesgos de seguridad. Analizamos los riesgos relacionados con la multiplicación, la inadaptación y la dominación de los robots y sugerimos soluciones para un control humano significativo. Estas preocupaciones pueden parecer descabelladas en la actualidad, sin embargo, planteamos que hay que crear conciencia antes de que la tecnología madure.

Identificar los debates éticos clave para los robots autónomos en la agroalimentación: una agenda de investigación

https://link.springer.com/article/10.1007/s43681-021-00104-w

Las empresas agrícolas están invirtiendo en diferentes formas de robots de IA, ya que hay muchas esperanzas de que estas máquinas ayuden a superar los retos de la industria agrícola, que consiste en producir de forma eficiente más alimentos para una población mundial creciente. Se espera que los robots de IA mejoren la producción, a la vez que compensen la falta de mano de obra, reduzcan los costes de producción, se hagan cargo de trabajos poco atractivos (arriesgados, pesados y sucios) y reduzcan la carga de la producción de alimentos en el medio ambiente. Sin embargo, a pesar de estas promesas, los robots de IA para la agroalimentación también dan lugar a cuestiones y preocupaciones éticas, que han sido poco investigadas y debatidas hasta ahora. Para colmar esta laguna, elaboramos una agenda de investigación para el futuro en este ámbito. Para ello, abrimos nuestro análisis para centrarnos en la ética de los robots de IA en general, para identificar específicamente cuáles de estas cuestiones son más relevantes para los robots agrícolas. La pregunta a la que queremos dar respuesta es: ¿cuáles son las cuestiones éticas más relevantes que se plantean sobre los robots de IA para los robots desarrollados para el sector agroalimentario? ¿Y qué cuestiones no se mencionan en la bibliografía, que son especialmente relevantes para los robots agrícolas? Nuestro artículo ofrecerá una visión general sobre las cuestiones y áreas clave que merecen una mayor elaboración para llegar a una ética más madura de los agro-robots de IA.

Los robots y la posibilidad de una atención humanista

https://link.springer.com/article/10.1007/s12369-021-00804-7

Es probable que los robots asistenciales realicen actividades de cuidado cada vez más sofisticadas que algunos considerarán reconfortantes y valiosas. Serán cada vez más parecidos a los humanos y a la vida. Este artículo aborda la cuestión conceptual: Aunque los robots puedan asistir y aliviar el sufrimiento de las personas, ¿pueden estas máquinas proporcionar cuidados humanistas? Podría decirse que el cuidado humanista es la forma de cuidado más humana y profunda que existe. Como tal, se puede pensar que muestra con mayor crudeza el abismo entre los cuidados humanos y los robóticos. El artículo sostiene que el cuidado humanista es, en efecto, una forma distintiva de cuidado «afectivo» que depende de ciertas características o aspectos exclusivamente humanos de nuestra humanidad que pueden proporcionar un profundo tipo de consuelo a las personas que sufren. A continuación, argumenta que existe un importante sentido conceptual en el que los robots no pueden proporcionar cuidados humanistas. No obstante, el artículo sugiere que podemos reconocer un sentido útil en el que los robots, de un tipo adecuadamente antropomórfico, pueden proporcionar cuidados humanistas. Los robots podrían «expresar» a las personas con necesidades físicas, sociales o emocionales el tipo de cuidados humanistas que sólo los seres humanos pueden proporcionar, pero de los que, sin embargo, los enfermos pueden recibir consuelo precisamente por lo que se les expresa. Aunque este sentido de los cuidados humanistas por parte de los robots es derivado de los cuidados exclusivamente humanos, y aunque está muy abierto a la crítica social y ética, no deja de ser una idea que vale la pena aclarar para cualquiera que esté interesado en las posibilidades y los límites de los cuidados por parte de los robots.

Does kindness towards robots lead to virtue? A reply to Sparrow’s asymmetry argument

https://www.readcube.com/articles/10.1007/s10676-021-09604-z

¿El comportamiento cruel hacia los robots conduce al vicio, mientras que el comportamiento amable no conduce a la virtud? Este artículo presenta una respuesta crítica al argumento de Sparrow de que existe una asimetría en la forma en que (deberíamos) pensar sobre la virtud y los robots. Se discute hasta qué punto deberíamos alabar la virtud en contraposición al vicio, cómo se relaciona la virtud con el conocimiento práctico y la sabiduría, cuánta ilusión se necesita para que sea una barrera para la virtud, la relación entre la virtud y las consecuencias, la relevancia moral del requisito de realidad y las diferentes maneras en que se puede tratar con él, el riesgo de sesgo antropocéntrico en esta discusión, y los supuestos epistemológicos subyacentes y las cuestiones políticas. Esta respuesta no sólo es relevante para el argumento de Sparrow o para la ética de los robots, sino que también toca cuestiones centrales de la ética de la virtud.

OpenAI abandona la investigación en robótica

Según el cofundador de OpenAI, Wojciech Zaremba, la empresa ha disuelto recientemente su equipo de robótica. Zaremba hizo este anuncio durante una reciente entrevista en un podcast con el presentador de Weights & Biases, Lukas Biewald, de la que se informó por primera vez en este artículo de VentureBeat.

«En realidad, creo firmemente en el enfoque que el (equipo) de robótica adoptó en esa dirección, pero desde la perspectiva de la AGI (inteligencia general artificial), creo que en realidad faltaban algunos componentes. Así que cuando creamos el equipo de robótica, pensamos que podíamos llegar muy lejos con los datos autogenerados y el aprendizaje por refuerzo», dijo Zaremba.

Zaremba añadió que no se arrepiente de la inversión que OpenAI hizo en robótica. «Creo que tenemos muchas ideas para otros proyectos. También creo que hemos construido una tecnología increíble».

La empresa seguirá invirtiendo en otras áreas en las que haya datos adecuados para el entrenamiento. En opinión de Zaremba, el trabajo en esta área podría continuar una vez que haya modelos de vídeo lo suficientemente potentes como para soportar los conjuntos de datos de entrenamiento necesarios para construir un modelo viable. Según Zaremba, «el problema de los modelos de vídeo es que requieren mucho más cálculo que los modelos de texto».

Entrevista del podcast de Weights & Biases con Wojciech Zaremba

La empresa es famosa por haber utilizado sus herramientas de IA para entrenar una mano robótica para resolver un cubo de Rubik manipulando el cubo. El resultado de esta investigación puede verse en el siguiente vídeo:

Si realmente quieres profundizar, consulta el informe de investigación sobre la resolución del cubo de Rubik con una mano robótica.

Conclusiones

La entrevista de Weights and Biases con Zaremba es muy instructiva si eres un investigador de IA. El estado de la IA está evolucionando rápidamente, pero todavía estamos a décadas de distancia de la inteligencia artificial general. Zaremba señala que la computación y la falta de datos son dos de los requisitos fundamentales para que cualquier aplicación basada en la IA sea viable. Así, a la hora de decidir si un problema puede resolverse con IA, primero hay que preguntarse «si hay suficientes datos para entrenar un modelo». Lo ideal es contar con cientos de miles o incluso millones de puntos de datos para el conjunto de datos base.

Contra los impuestos a los robots: escudriñando las razones morales para la preservación del trabajo

https://link.springer.com/article/10.1007/s43681-021-00062-3

Una propuesta política reciente para abordar el desafío del desempleo tecnológico sugiere que el estado debería imponer un impuesto a las tecnologías que reemplazan la mano de obra. La idea es preservar los puestos de trabajo desincentivando la automatización. En este artículo, evalúo críticamente la propuesta desde una perspectiva ética. Muestro que, con respecto a las concepciones de la justicia distributiva, no está claro que se pueda justificar excluir las ganancias potenciales de ingresos reales de los consumidores por la automatización. Pero, ante todo, examino el ideal moral detrás de la pretensión normativa de preservar el trabajo. Demuestro que los argumentos a favor de un impuesto a los robots se basan en convicciones morales dudosas sobre el valor del trabajo y concluyo que una base moral para imponer un impuesto a los robots está sujeta a un escrutinio justificado.