Cuando los agentes artificiales mienten, difaman y defraudan, ¿quién tiene la culpa?

La película Robot y Frank imagina un futuro cercano en el que se pueden comprar robots para que actúen como cuidadores y compañeros en casa. El hijo de Frank le compra un robot, y éste no tarda en darse cuenta de que puede contar con su ayuda para cometer robos de gatos. El robot empieza a mostrar creatividad e iniciativa en estos actos delictivos, y Frank sufre demencia. ¿Quién es el responsable último de estas violaciones de la ley?

Los expertos en robótica e inteligencia artificial tendrán que suspender la creencia para disfrutar de Robot y Frank: el robot tiene capacidades que seguirán siendo puramente de ciencia ficción durante algún tiempo. Pero los continuos avances en el campo de la inteligencia artificial hacen que merezca la pena considerar una cuestión provocativa que puede adquirir mayor relevancia práctica en el futuro: ¿Cómo reaccionaríamos, como individuos y como sociedad, ante un agente artificial que participara en la comisión de algún delito civil o penal? Los agentes artificiales de hoy no serían buenos ladrones de gatos, pero tienen el don de la palabra, por lo que es sólo cuestión de tiempo que se les acuse de cometer delitos que impliquen el lenguaje de alguna manera: calumnias, injurias, difamación, soborno, coacción, etc. 

¿Quién debe ser considerado responsable cuando los agentes artificiales incurren en una conducta lingüística que es legalmente problemática? La ley ya describe algunas formas en las que los propietarios y distribuidores de agentes artificiales pueden ser considerados responsables de su mal uso, pero ¿qué ocurrirá cuando estos agentes se hayan adaptado a sus entornos de forma que los haga únicos? Nadie podrá predecir o comprender plenamente sus comportamientos. 

Sospechamos que, en tales situaciones, la sociedad puede a veces querer responsabilizar a los propios agentes de sus acciones. Esto tiene profundas implicaciones para la ley, la tecnología y los usuarios individuales.

Agentes adaptativos y responsabilidad personal

En Robot y Frank, el robot se convierte en un agente único muy rápidamente, ya que aprende sobre Frank y se adapta a sus comportamientos y preferencias. En cambio, los agentes actuales -ya sean constituidos puramente como software o como robots físicos- son en su mayoría entidades genéricas y polivalentes que se comportan de la misma manera con todos los usuarios, a menudo para nuestra frustración. Sin embargo, esto está cambiando rápidamente. Los agentes del futuro próximo serán cada vez más adaptativos. Estos nuevos agentes aprenderán sobre nosotros y calibrarán sus propios comportamientos como respuesta. Ya hemos visto un poco de esto si hemos entrenado a un reconocedor de voz para que nos ayude a dictar, o si hemos programado a un asistente virtual para que reconozca las formas en que nos referimos a las cosas y a las personas de nuestra vida. Esto es sólo el principio. Los avances en IA que se están produciendo ahora mismo están preparando el camino para que los agentes se adapten con flexibilidad a nuestro lenguaje, estados de ánimo, necesidades y hábitos de pensamiento sin ningún esfuerzo especial por nuestra parte.

Lea la historia relacionada: Cómo los grandes modelos lingüísticos transformarán la ciencia y la sociedad

Considere las posibles consecuencias. Cuanto más se adapten a ti los agentes artificiales de tu vida, más se convertirán en algo único: una mezcla muy compleja de su diseño original, las experiencias específicas que han tenido contigo y la forma en que se han adaptado a esas experiencias. En lugar de la eterna pregunta «¿Naturaleza o crianza?», preguntaremos «¿Diseño o experiencia?» cuando observemos que hacen y dicen cosas sorprendentes, e incluso que nos obligan a hacer cosas sorprendentes. Cuando se considere que estas acciones tienen un impacto negativo, nuestro sistema jurídico se verá obligado a preguntar «¿Quién es el responsable?» – una pregunta que puede no tener una respuesta clara. 

Comportamientos inexplicables buenos y malos

Para ver por qué estas preguntas serán tan desafiantes, vale la pena detenerse en la dificultad fundamental de conocer y predecir plenamente el funcionamiento de estos sistemas. Como dice el refrán, son «cajas negras». En comparación, las generaciones anteriores de agentes artificiales eran fáciles de interpretar, ya que eran esencialmente conjuntos gigantes de declaraciones «si/entonces». Si un sistema se comportaba mal, teníamos la esperanza de encontrar las piezas de código que causaban el mal comportamiento. Sin embargo, los sistemas diseñados de este modo nunca fueron capaces de enfrentarse a la complejidad del mundo, lo que los hacía frustrantemente inflexibles y limitados.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: