Diseña un sitio como este con WordPress.com
Comenzar

Sí, estamos asustados»: La IA empieza a tener un gran impacto en el mundo real, según un experto

https://www.theguardian.com/technology/2021/oct/29/yeah-were-spooked-ai-starting-to-have-big-real-world-impact-says-expert

Un científico autor de un importante libro de texto sobre inteligencia artificial ha declarado que los expertos están «asustados» por su propio éxito en este campo, comparando el avance de la IA con el desarrollo de la bomba atómica.

El profesor Stuart Russell, fundador del Centro de Inteligencia Artificial Compatible con el Ser Humano de la Universidad de California en Berkeley, dijo que la mayoría de los expertos creían que este siglo se desarrollarían máquinas más inteligentes que los humanos, y pidió tratados internacionales para regular el desarrollo de la tecnología.

«La comunidad de la IA aún no se ha ajustado al hecho de que ahora estamos empezando a tener un impacto realmente grande en el mundo real», dijo a The Guardian. «Durante la mayor parte de la historia de este campo no ha sido así: sólo estábamos en el laboratorio, desarrollando cosas, intentando que funcionaran y, en la mayoría de los casos, sin conseguirlo. Así que la cuestión del impacto en el mundo real no era en absoluto pertinente. Y tenemos que crecer muy rápido para ponernos al día».

La inteligencia artificial sustenta muchos aspectos de la vida moderna, desde los motores de búsqueda hasta la banca, y los avances en el reconocimiento de imágenes y la traducción automática son algunos de los principales desarrollos de los últimos años.

Stuart Russell

El profesor Stuart Russell. Fotografía: Peg Skorpinski

Russell, que en 1995 fue coautor del libro seminal Artificial Intelligence: A Modern Approach, y que impartirá este año las conferencias Reith de la BBC tituladas «Living with Artificial Intelligence», que comienzan el lunes, afirma que es necesario trabajar urgentemente para asegurarse de que los humanos sigan teniendo el control mientras se desarrolla la IA superinteligente.

«La IA ha sido diseñada con una metodología particular y una especie de enfoque general. Y no somos lo suficientemente cuidadosos como para utilizar ese tipo de sistema en entornos complicados del mundo real», dijo.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Anuncio publicitario

Más allá del individuo: gobernar el daño social de la IA

https://policyreview.info/articles/analysis/beyond-individual-governing-ais-societal-harm

En este artículo, distingo tres tipos de daños que pueden surgir en el contexto de la inteligencia artificial (IA): daños individuales, daños colectivos y daños sociales. El daño social suele pasarse por alto, pero no es reducible a los dos primeros tipos de daño. Además, los mecanismos para hacer frente a los daños individuales y colectivos provocados por la IA no siempre son adecuados para contrarrestar los daños sociales. En consecuencia, el análisis de las lagunas del marco jurídico actual de la IA por parte de los responsables políticos no sólo corre el riesgo de ser incompleto, sino que las propuestas de nueva legislación para colmar estas lagunas también pueden proteger inadecuadamente los intereses de la sociedad que se ven perjudicados por la IA. Al conceptualizar el daño social de la IA, sostengo que es necesario un cambio de perspectiva más allá del individuo, hacia un enfoque regulador de la IA que aborde sus efectos en la sociedad en general. Basándome en un ámbito jurídico destinado específicamente a proteger un interés social -el derecho medioambiental-, identifico tres mecanismos «sociales» que los responsables políticos de la UE deberían tener en cuenta en el contexto de la IA. Se trata de (1) mecanismos de supervisión pública para aumentar la responsabilidad, incluidas las evaluaciones de impacto obligatorias con la oportunidad de proporcionar información a la sociedad; (2) mecanismos de supervisión pública para garantizar la recopilación y difusión de información independiente sobre el impacto social de la IA; y (3) la introducción de derechos procesales con una dimensión social, incluido el derecho de acceso a la información, el acceso a la justicia y la participación en la toma de decisiones públicas sobre la IA, independientemente de la demostración del daño individual. Por último, considero hasta qué punto la nueva propuesta de reglamento sobre IA de la Comisión Europea tiene en cuenta estos mecanismos, antes de ofrecer unas observaciones finales.

*** Translated with http://www.DeepL.com/Translator (free version) ***

El futuro no es la solución

«El futuro es un tipo particular de orador», explica el académico de la comunicación James W. Carey, «que nos dice hacia dónde vamos antes de que lo sepamos nosotros mismos».1 Pero en los debates sobre la naturaleza del futuro, el futuro como experiencia nunca aparece. Esto se debe a que «el futuro está siempre fuera de escena y nunca hace su entrada en la historia; el futuro es un tiempo que nunca llega pero que siempre se espera». Tal vez por eso, en el contexto estadounidense, existe una tendencia generalizada a «descartar el presente por el futuro», y a ver el «futuro como disolvente» de los problemas sociales existentes.

Las discusiones abstractas sobre «el futuro» no dan en el blanco. Esto se debe a que la experiencia nos cambia. Cualquiera que haya vivido los últimos 18 meses de la pandemia de COVID-19 estará seguramente de acuerdo. Aunque los expertos en salud son muy conscientes de los riesgos globales que plantean las pandemias, nadie -ni siquiera un algoritmo- puede predecir con exactitud cuándo, dónde y cómo pueden producirse. Y, sin embargo, desde la primavera de 2020, existe un deseo global de entender con precisión lo que viene, cómo navegar por futuros inciertos así como adaptarse a los cambios a largo plazo. La pandemia, según la escritora Arundhati Roy, es «un portal, una puerta entre un mundo y el siguiente «2.

Para entender las opciones a las que nos enfrentamos, es necesario comprender el modo en que las tecnologías y los futuros suelen estar vinculados -social, política y comercialmente- a través de sus promesas de un mañana mejor, uno que está más allá de nuestro alcance. El informático Paul Dourish y la antropóloga Genevieve Bell se refieren a ellas como «tecnovisiones» o las historias que los tecnólogos y las empresas tecnológicas cuentan sobre el papel de las tecnologías informáticas en el futuro.3 Las tecnovisiones presentan el progreso tecnológico como algo inevitable, convirtiéndose en mitologías culturales y profecías autocumplidas. Explican que el «futuro próximo», un futuro que se «pospone indefinidamente», es una característica clave de la investigación y la práctica en el campo de la informática que permite a las empresas tecnológicas «eximirse de las responsabilidades del presente» al asumir que «ciertos problemas simplemente desaparecerán por sí mismos: las cuestiones de usabilidad, regulación, resistencia, barreras de adopción, reacciones sociotécnicas y otras preocupaciones se borran».4

Pero la promesa de un mañana mejor no es excusa para el despliegue desigual, injusto y perjudicial de la tecnología en la actualidad, un tema sobre el que he escrito anteriormente para Public Books, con respecto tanto a las ciudades «inteligentes» como a los dispositivos médicos «inteligentes». Pongamos un ejemplo: como diabético de tipo 1, llevo tres años y medio con una bomba de insulina y un sistema de sensores «inteligentes». Durante ese tiempo, sólo he podido dormir toda la noche unas pocas veces a la semana, debido a la frecuente necesidad de calibrar el sensor en mitad de la noche. He llegado a creer que «el sistema de IA que me mantiene vivo también está arruinando mi vida». Aunque se promete que el sistema de la próxima versión será mejor, eso hace muy poco por las decenas de miles de personas que, como yo, viven con el sistema actual.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Todos tenemos el poder de dar forma al futuro de la tecnología

La tecnología es una parte tan omnipresente de la vida moderna que a menudo puede parecer una fuerza de la naturaleza, un poderoso maremoto en el que los usuarios y los consumidores pueden subirse pero tienen poco poder para guiar su dirección. No tiene por qué ser así.

Kurt Hickman

Los académicos de Stanford afirman que la innovación tecnológica no es una fuerza inevitable que ejerce su poder sobre nosotros. En cambio, en un nuevo libro, tratan de capacitarnos a todos para crear un futuro tecnológico que apoye el florecimiento humano y los valores democráticos.

En lugar de aceptar simplemente la idea de que los efectos de la tecnología están fuera de nuestro control, debemos reconocer el poderoso papel que desempeña en nuestra vida cotidiana y decidir qué queremos hacer al respecto, afirman Rob Reich, Mehran Sahami y Jeremy Weinstein en su nuevo libro System Error: Where Big Tech Went Wrong and How We Can Reboot (Harper Collins, 2021). El libro integra las perspectivas únicas de cada uno de los académicos -Reich como filósofo, Sahami como tecnólogo y Weinstein como experto en políticas y científico social- para mostrar cómo podemos dar forma colectivamente a un futuro tecnológico que apoye el florecimiento humano y los valores democráticos.

Reich, Sahami y Weinstein se reunieron por primera vez en 2018 para impartir la popular clase de informática, CS 181: Computadoras, Ética y Políticas Públicas. Su clase se transformó en el curso CS182: Ética, Política Pública y Cambio Tecnológico, que pone a los estudiantes en el papel del ingeniero, el legislador y el filósofo para comprender mejor las ineludibles dimensiones éticas de las nuevas tecnologías y su impacto en la sociedad.

Ahora, basándose en los materiales de la clase y en sus experiencias en la enseñanza de los contenidos tanto a los estudiantes de Stanford como a los ingenieros profesionales, los autores muestran a los lectores cómo podemos trabajar juntos para abordar los impactos negativos y las consecuencias no deseadas de la tecnología en nuestras vidas y en la sociedad.

«Tenemos que cambiar el propio sistema operativo de cómo se desarrollan, distribuyen y utilizan los productos tecnológicos por millones e incluso miles de millones de personas», dijo Reich, profesor de ciencias políticas en la Facultad de Humanidades y Ciencias y director de la facultad del Centro Familiar McCoy para la Ética en la Sociedad. «El modo de hacerlo es activar la agencia no sólo de los constructores de tecnología, sino también de los usuarios y los ciudadanos».

Cómo la tecnología amplifica los valores

Sin duda, son muchas las ventajas de contar con la tecnología en nuestras vidas. Pero en lugar de celebrarla o criticarla ciegamente, los académicos instan a un debate sobre las consecuencias no deseadas y los impactos perjudiciales que pueden surgir de estas nuevas y poderosas herramientas y plataformas.

Una forma de examinar los efectos de la tecnología es explorar cómo los valores se incrustan en nuestros dispositivos. Cada día, los ingenieros y las empresas tecnológicas para las que trabajan toman decisiones, a menudo motivadas por un deseo de optimización y eficiencia, sobre los productos que desarrollan. Sus decisiones suelen conllevar compensaciones -priorizar un objetivo a costa de otro- que pueden no reflejar otros objetivos valiosos.

Por ejemplo, los usuarios suelen sentirse atraídos por los titulares sensacionalistas, aunque ese contenido, conocido como «clickbait», no sea una información útil o incluso veraz. Algunas plataformas han utilizado el porcentaje de clics como métrica para priorizar el contenido que ven sus usuarios. Pero al hacerlo, están haciendo una compensación que valora el clic en lugar del contenido de ese clic. Como resultado, esto puede conducir a una sociedad menos informada, advierten los académicos.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La inteligencia artificial y el derecho internacional de los refugiados

Los derechos de los refugiados son cosmológicos, vinculantes, combinados, codependientes e interconectados y constituyen la estructura básica de la costumbre internacional [BASIC] que engloba las jurisdicciones nacionales de todo el mundo. BASIC se nutre de la dignidad; por lo tanto, la palabra «derechos de los refugiados» puede ser delineada y definida en una sola palabra -según mi entendimiento- llamada «dignidad», ya que es la cuestión de la dignidad humana la que abordamos en los derechos de los refugiados. Por lo tanto, los derechos de los refugiados significan dignidad, pero la misma se ha enrevesado aún más con el ascenso de la Inteligencia Artificial (IA) que ha presentado nuevos desafíos a la igualdad humana en todos los ámbitos de la vida. La IA ha reducido la humanidad a cálculos algorítmicos contrarios a las normas mundiales de derechos humanos. La IA no reconoce la importancia del humanitarismo en su forma actual. Ha imaginado un mundo de números dinámicos que no protegen a la humanidad ni mitigan los sufrimientos humanos en los procedimientos de determinación del estatus de refugiado (RSD).  El humanitarismo algorítmico es una idea que padece la aclimatación mecánica, tecnocrática y científica de la existencia humana desprovista de ética, justicia y moralidad. Los cálculos controlados por máquinas adjudican exclusivamente los procedimientos RSD y las decisiones de inmigración. Pero la aplicación de la IA también ha planteado una serie de problemas relacionados con la privacidad de los datos, la confidencialidad y el uso y el mal uso de la información de los datos recopilados por los gobiernos, las organizaciones, los funcionarios de la RSD y las autoridades de inmigración de los refugiados y solicitantes de asilo migrantes y apátridas (RAMS). Dichos datos pueden ser explotados, empleados y maniobrados con fines geoestratégicos, geopolíticos, de geoingeniería, de investigación médica, socioeconómicos y demográficos por las instituciones y gobiernos mundiales, regionales y nacionales. En la protección de los derechos humanos, los derechos de los refugiados y las decisiones en materia de inmigración, la IA ha estado afectando negativamente a los procedimientos de determinación de la condición de refugiado y a las sentencias de inmigración en todo el mundo.

Humanitarismo algorítmico

Por lo tanto, el humanitarismo algorítmico ha presentado un compendio de preguntas que de respuestas. De ahí que la IA carezca de la sensibilidad antropogénica, el pensamiento crítico, la subjetividad humana y los umbrales de objetividad necesarios para apreciar los grados de persecución y discriminación en los procedimientos de RSD y las decisiones de inmigración, en violación de las normas mundiales de derechos humanos de protección de los refugiados. Así pues, es necesario hurgar y rumiar estas cuestiones examinando la aplicación de la IA y evaluando su impacto en las normas globales de derechos humanos que sustentan a la humanidad y hacen que la existencia humana sea humana más allá de la percepción de la inteligencia y el discernimiento algorítmicos. Tiene que haber una primacía centrada en el ser humano de la aplicación de la IA al tiempo que se posicionan los igualadores de refugiados en el marco de las tecnologías ADM (ATF) para los procedimientos RSD en relación con los desafíos del derecho internacional de los derechos humanos (IHRL) con el enfoque basado en los derechos humanos (HRBA). Además, el marco de igualdad de la IA debe constituir y defender que el humanitarismo algorítmico debe reprogramarse con nuevas tecnologías de IA impregnadas de normas globales de derechos humanos para una inteligencia artificial sostenible.

*** Translated with http://www.DeepL.com/Translator (free version) ***

a

Los robots autónomos controlan el mal comportamiento en el corazón de Singapur

https://www.straitstimes.com/singapore/autonomous-robots-checking-on-bad-behaviour-in-the-heartland

Mientras patrulla el centro de la ciudad, cerca de Toa Payoh HDB Hub, Xavier encuentra a un hombre dando una calada a un cigarrillo en una zona en la que está prohibido fumar.

En cuestión de segundos, las imágenes de vídeo se envían a un centro de mando y control y se introducen en un sistema de análisis de vídeo programado para reconocer la postura del hombre, el contorno del cigarrillo en la boca y otros indicadores visuales.

Con una voz sintética, se emite un mensaje pregrabado: «Por favor, no fume en las zonas prohibidas, como los pasillos cubiertos».

Actuando como un incansable par de ojos, Xavier es un robot autónomo diseñado para eliminar «comportamientos sociales indeseables» que han sido identificados por los organismos públicos aquí.

En el barrio de Toa Payoh Central, dos de estos robots patrullarán durante tres semanas a partir del domingo (5 de septiembre) para detectar a los fumadores errantes, los vendedores ambulantes ilegales, los conductores de motocicletas y motos eléctricas en las aceras y las reuniones que superen los límites actuales de tamaño de los grupos.

Equipados con cámaras que tienen un campo de visión de 360 grados y pueden ver en la oscuridad, los robots podrán alertar a los agentes públicos en tiempo real de estas infracciones. También podrán emitir y mostrar mensajes que eduquen al público contra estos comportamientos indeseables.

Es la primera vez que se utiliza un robot autónomo para patrullar y vigilar una zona pública de gran afluencia de público para mejorar la salud y la seguridad de los ciudadanos, explican los cinco organismos públicos que participan en el proyecto. 

Se trata de la Agencia de Ciencia y Tecnología del Equipo Nacional (HTX), la Agencia Nacional de Medio Ambiente, la Autoridad de Transporte Terrestre (LTA), la Agencia Alimentaria de Singapur y la Junta de Vivienda.

Xavier, desarrollado por HTX en colaboración con la Agencia de Ciencia, Tecnología e Investigación, contribuirá a mejorar la eficacia operativa y a reducir las necesidades de personal para las patrullas a pie, dijeron.

Esto es especialmente cierto para las operaciones que requieren mucha mano de obra, como la vigilancia de los vendedores ambulantes ilegales.

El nombre Xavier, que significa «nuevo hogar» en euskera, es un guiño a que el robot es una versión renovada de los robots autónomos polivalentes de la policía, o Matar, que se han desplegado durante grandes eventos públicos como el Desfile del Día Nacional, Marina Bay Countdown y Chingay. 

Cheng Wee Kiang, director del centro de experiencia en robótica, automatización y sistemas no tripulados de HTX, declaró el domingo en un acto con los medios de comunicación: «Hemos dado una nueva vida a este robot y hemos ampliado sus capacidades».

Auto

*** Translated with http://www.DeepL.com/Translator (free version) ***

Demasiados investigadores de IA piensan que los problemas del mundo real no son relevantes

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2020/08/18/1007196/ai-research-machine-learning-applications-problems-opinion/amp/

Cualquier investigador que se haya centrado en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como ésta: «Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la comunidad del aprendizaje automático».

Estas palabras proceden directamente de una reseña que recibí por un artículo que presenté en la conferencia NeurIPS (Neural Information Processing Systems), un lugar destacado para la investigación sobre el aprendizaje automático. He visto este estribillo una y otra vez en las reseñas de los trabajos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de innumerables personas.

Publicidad

Esto me hace preguntarme: Si la comunidad considera que el objetivo de resolver problemas de alto impacto en el mundo real con el aprendizaje automático tiene una importancia limitada, entonces ¿qué estamos tratando de lograr?

El objetivo de la inteligencia artificial (pdf) es hacer avanzar la frontera de la inteligencia de las máquinas. En el campo del aprendizaje automático, un desarrollo novedoso suele significar un nuevo algoritmo o procedimiento, o -en el caso del aprendizaje profundo- una nueva arquitectura de red. Como otros han señalado, este hiperenfoque en los métodos novedosos conduce a una plaga de artículos que informan de mejoras marginales o incrementales en conjuntos de datos de referencia y exhiben una erudición defectuosa (pdf), ya que los investigadores compiten para alcanzar la cima.

Mientras tanto, muchos artículos que describen nuevas aplicaciones presentan tanto conceptos novedosos como resultados de gran impacto. Pero incluso la palabra «aplicación» parece estropear el artículo para los revisores. En consecuencia, este tipo de investigaciones quedan marginadas en los principales congresos. La única esperanza real de sus autores es que sus trabajos sean aceptados en talleres, que rara vez reciben la misma atención de la comunidad.

Esto es un problema porque el aprendizaje automático es muy prometedor para el avance de la salud, la agricultura y los descubrimientos científicos, entre otros. La primera imagen de un agujero negro se produjo gracias al aprendizaje automático. Las predicciones más precisas de las estructuras de las proteínas, un paso importante para el descubrimiento de fármacos, se realizan mediante el aprendizaje automático. Si otros en este campo hubieran dado prioridad a las aplicaciones en el mundo real, ¿qué otros descubrimientos innovadores habríamos hecho ya?

No se trata de una revelación nueva. Citando un artículo clásico titulado «Machine Learning that Matters» (pdf), del informático de la NASA Kiri Wagstaff «Gran parte de la investigación actual sobre aprendizaje automático ha perdido su conexión con problemas de importancia para el mundo más amplio de la ciencia y la sociedad». El mismo año en que Wagstaff publicó su artículo, una red neuronal convolucional llamada AlexNet ganó un concurso de alto perfil para el reconocimiento de imágenes centrado en el popular conjunto de datos ImageNet, lo que llevó a una explosión de interés en el aprendizaje profundo. Por desgracia, la desconexión que describió parece haber empeorado aún más desde entonces.

Las preguntas equivocadas

Marginar la investigación de las aplicaciones tiene consecuencias reales. Los conjuntos de datos de referencia, como ImageNet o COCO, han sido clave para el avance del aprendizaje automático. Permiten entrenar y comparar algoritmos con los mismos datos. Sin embargo, estos conjuntos de datos contienen sesgos que pueden incorporarse a los modelos resultantes.

Más de la mitad de las imágenes de ImageNet (pdf) proceden de Estados Unidos y Gran Bretaña, por ejemplo. Este desequilibrio hace que los sistemas clasifiquen de forma inexacta las imágenes en categorías que difieren según la geografía (pdf). Los conjuntos de datos de rostros más conocidos, como la base de datos de rostros de AT&T, contienen principalmente sujetos masculinos de piel clara, lo que hace que los sistemas tengan dificultades para reconocer rostros femeninos y de piel oscura.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La IA de la industria tecnológica se está homogeneizando peligrosamente, dicen los expertos de Stanford

Un grupo multidisciplinar de profesores y estudiantes de la Universidad de Stanford quiere iniciar un debate serio sobre el creciente uso de modelos de IA grandes y terriblemente inteligentes, como el modelo de lenguaje natural GPT-3 (Generative Pretraining Transformer 3) de OpenAI.

PUBLICIDAD

PUBLICIDAD

El GPT-3 es fundacional porque se desarrolló utilizando enormes cantidades de datos de entrenamiento y potencia informática para alcanzar un rendimiento de propósito general de última generación. Los desarrolladores, que no quieren reinventar la rueda, lo utilizan como base de su software para abordar tareas específicas.

Pero los modelos de base tienen algunos inconvenientes reales, explica el profesor de informática de Stanford Percy Liang. Crean «un único punto de fallo, por lo que cualquier defecto, cualquier sesgo que tengan estos modelos, cualquier vulnerabilidad de seguridad… se hereda ciegamente por todas las tareas posteriores», afirma.

Liang dirige un nuevo grupo reunido por el Instituto de Inteligencia Artificial Centrada en el Ser Humano (HAI) de Stanford, denominado Centro de Investigación de Modelos Fundamentales (CRFM). El grupo está estudiando el impacto y las implicaciones de los modelos de fundación, y está invitando a las empresas tecnológicas que los desarrollan a sentarse a la mesa y participar.

PUBLICIDAD

El afán de lucro anima a las empresas a pisar el acelerador en la tecnología emergente en lugar de frenar para reflexionar y estudiar, dice Fei-Fei Li, que fue director del Laboratorio de Inteligencia Artificial de Stanford de 2013 a 2018 y ahora codirige HAI.

«La industria está trabajando rápido y duro en esto, pero no podemos dejar que sean los únicos que trabajen en este modelo, por múltiples razones», dice Li. «Mucha de la innovación que podría salir de estos modelos todavía, creo firmemente que saldrá del entorno de la investigación donde los ingresos no son el objetivo».

POCOS MODELOS, GRAN IMPACTO

Parte de la razón de toda la preocupación es que los modelos de fundación terminan tocando la experiencia de muchas personas. En 2019, los investigadores de Google construyeron el modelo de lenguaje natural BERT (Bidirectional Encoder Representations from Transformers), que ahora desempeña un papel en casi todas las funciones de búsqueda de Google. Otras empresas tomaron BERT y construyeron nuevos modelos sobre él. Los investigadores de Facebook, por ejemplo, utilizaron BERT como base para un modelo de lenguaje natural aún mayor, llamado RoBERTa (Robustly Optimized BERT Pretraining Approach), que ahora sustenta muchos de los modelos de moderación de contenidos de Facebook.

«Ahora casi todos los modelos de PNL (Procesamiento del Lenguaje Natural) se construyen sobre BERT, o quizá sobre uno de estos modelos básicos», dice Liang. «Así que está ocurriendo esta increíble homogeneización».

En junio de 2020, OpenAI comenzó a poner su modelo de lenguaje natural GPT-3 a disposición de otras empresas a través de una API comercial que luego construyeron aplicaciones especializadas sobre él. OpenAI ha construido ahora un nuevo modelo, Codex, que crea código informático a partir de texto en inglés.

Los modelos de fundación son un fenómeno relativamente nuevo. Antes de 2019, los investigadores diseñaban modelos de IA desde cero para tareas específicas, como resumir documentos o crear asistentes virtuales. Los modelos de fundación se crean con un enfoque totalmente diferente, explica Liang.

*** Translated with http://www.DeepL.com/Translator (free version) ***

La inteligencia artificial devuelve la «vida» a los muertos, pero ¿debería hacerlo?

https://news.ucr.edu/articles/2021/08/04/artificial-intelligence-bringing-dead-back-life-should-it

¿Y si pudiera hablar con un facsímil digital de un ser querido fallecido? ¿Hablarías realmente con ellos? ¿Querría hacerlo?

En los últimos años, la tecnología se ha empleado para resucitar a los muertos, sobre todo en forma de celebridades fallecidas. Carrie Fisher fue digitalizada para poder retomar su papel de princesa Leia en la última película de «La guerra de las galaxias». Kanye West regaló a Kim Kardashian un holograma de su difunto padre por su cumpleaños el año pasado. Más recientemente -y de forma controvertida- se utilizó la inteligencia artificial para falsear la voz del chef Anthony Bourdain para narrar el documental «Roadrunner».

En lo que parece un inquietante episodio de «Black Mirror», Microsoft anunció a principios de este año que había conseguido una patente para un software que podría reencarnar a las personas en forma de chatbot, abriendo la puerta a un uso aún más amplio de la IA para devolver la vida a los muertos.

Preguntamos a nuestros expertos sobre la tecnología de IA que se utiliza hoy en día, el futuro de la reencarnación digital y las implicaciones éticas de la inmortalidad artificial.

Amit Roy-Chowdhury

Profesor de ingeniería eléctrica e informática y catedrático de robótica

Amit K. Roy-Chowdhury

«Cuando nos enteramos de algún uso muy sofisticado de la IA… tendemos a extrapolar de esa situación que la IA es mucho mejor de lo que realmente es».

– Roy-Chowdhury 

P: ¿Cree que será posible crear vídeos y chatbots que sean imposibles de distinguir de las personas reales? ¿Cuáles son las limitaciones de esta tecnología y cuánto tiempo cree que tardará la tecnología de IA en llegar a ser tan avanzada?

R: Toda la inteligencia artificial utiliza algoritmos que necesitan ser entrenados en grandes conjuntos de datos. Si se dispone de muchos textos o grabaciones de voz de una persona para entrenar los algoritmos, es muy factible crear un chatbot que responda de forma similar a la persona real. Los retos surgen en entornos no estructurados, donde el programa tiene que responder a situaciones que no ha encontrado antes. 

Por ejemplo, es probable que todos hayamos tenido interacciones con un chatbot de atención al cliente que no han ido como estaba previsto. Pedirle a un chatbot que te ayude a cambiar un billete de avión, por ejemplo, requiere que la IA tome decisiones en torno a varias condiciones únicas. Esto suele ser fácil para una persona, pero a un ordenador puede resultarle difícil, sobre todo si hay condiciones únicas. Muchos de estos sistemas de IA se limitan a memorizar rutinas. No están consiguiendo una comprensión semántica que les permita generar respuestas totalmente novedosas, aunque razonables.

Cuando nos enteramos de algún uso muy sofisticado de la IA para copiar a una persona real, como en el documental sobre Anthony Bourdain, tendemos a extrapolar de esa situación que la IA es mucho mejor de lo que realmente es. Sólo pudieron hacerlo con Bourdain porque hay muchas grabaciones de él en diversas situaciones. Si puedes grabar datos, puedes utilizarlos para entrenar a una IA, y ésta se comportará según los parámetros que haya aprendido. Pero no puede responder a sucesos más ocasionales o únicos. Los humanos comprenden la semántica más amplia y son capaces de producir respuestas y reacciones totalmente nuevas. Sabemos que la maquinaria semántica es desordenada.

*** Translated with http://www.DeepL.com/Translator (free version) ***

¿Una historia de vigilancia? Pasado, presente, predicción

https://www.degruyter.com/document/doi/10.1515/sats-2020-0021/html

En este ensayo, exploraré las interrelaciones y diferencias entre la tecnología humana y la digital a través de la lente de la vigilancia y el modelo de predicción: la construcción de perfiles. Aportaré algunas consideraciones filosóficas sobre la vigilancia y las prácticas de vigilancia, especialmente a la luz de la informatización y la digitalización, incluyendo algunas consideraciones epistemológicas con respecto a los supuestos subyacentes en la construcción algorítmica de perfiles e identidades humanas. El punto de partida son los encuentros accidentales con una misma persona en las calles de Copenhague.