Diseña un sitio como este con WordPress.com
Comenzar

Decisiones difíciles en inteligencia artificial

https://www.sciencedirect.com/science/article/pii/S0004370221001065?via%3Dihub

A medida que los sistemas de IA se integran en ámbitos sociales de gran importancia, los investigadores examinan ahora cómo diseñarlos y operarlos de forma segura y ética. Sin embargo, los criterios para identificar y diagnosticar los riesgos de seguridad en contextos sociales complejos siguen siendo poco claros y controvertidos. En este artículo, examinamos la vaguedad de los debates sobre la seguridad y el comportamiento ético de los sistemas de IA. Mostramos cómo esta vaguedad no puede resolverse únicamente mediante un formalismo matemático, sino que requiere una deliberación sobre la política de desarrollo y el contexto de despliegue. A partir de un nuevo léxico sociotécnico, redefinimos la indefinición en términos de distintos retos de diseño en etapas clave del desarrollo de sistemas de IA. El marco resultante de Hard Choices in Artificial Intelligence (HCAI) capacita a los desarrolladores al 1) identificar los puntos de solapamiento entre las decisiones de diseño y los principales retos sociotécnicos; 2) motivar la creación de canales de retroalimentación de las partes interesadas para que los problemas de seguridad puedan abordarse de forma exhaustiva. Como tal, la HCAI contribuye a un debate oportuno sobre la situación del desarrollo de la IA en las sociedades democráticas, argumentando que la deliberación debería ser el objetivo de la seguridad de la IA, no sólo el procedimiento por el que se garantiza.

Anuncio publicitario

El dilema social en el desarrollo de la IA y por qué debemos tenemos que resolverlo

Mientras aumenta la demanda de sistemas éticos de inteligencia artificial (IA), se acelera el número de usos no éticos de la IA, aunque no hay

de directrices éticas. Sostenemos que una de las principales causas subyacentes es

que los desarrolladores de IA se enfrentan a un dilema social en la ética del desarrollo de la IA, lo que impide la

la adaptación generalizada de las mejores prácticas éticas. Definimos el dilema social para

definimos el dilema social del desarrollo de la IA y describimos por qué la crisis actual de la ética del desarrollo de la IA no puede resolverse sin liberar a los desarrolladores de la IA de su dilema social. Argumentamos

que el desarrollo de la IA debe profesionalizarse para superar el dilema social, y

discutimos cómo la medicina puede servir de modelo en este proceso.

Los robots y la posibilidad de una atención humanista

https://link.springer.com/article/10.1007/s12369-021-00804-7

Es probable que los robots asistenciales realicen actividades de cuidado cada vez más sofisticadas que algunos considerarán reconfortantes y valiosas. Serán cada vez más parecidos a los humanos y a la vida. Este artículo aborda la cuestión conceptual: Aunque los robots puedan asistir y aliviar el sufrimiento de las personas, ¿pueden estas máquinas proporcionar cuidados humanistas? Podría decirse que el cuidado humanista es la forma de cuidado más humana y profunda que existe. Como tal, se puede pensar que muestra con mayor crudeza el abismo entre los cuidados humanos y los robóticos. El artículo sostiene que el cuidado humanista es, en efecto, una forma distintiva de cuidado «afectivo» que depende de ciertas características o aspectos exclusivamente humanos de nuestra humanidad que pueden proporcionar un profundo tipo de consuelo a las personas que sufren. A continuación, argumenta que existe un importante sentido conceptual en el que los robots no pueden proporcionar cuidados humanistas. No obstante, el artículo sugiere que podemos reconocer un sentido útil en el que los robots, de un tipo adecuadamente antropomórfico, pueden proporcionar cuidados humanistas. Los robots podrían «expresar» a las personas con necesidades físicas, sociales o emocionales el tipo de cuidados humanistas que sólo los seres humanos pueden proporcionar, pero de los que, sin embargo, los enfermos pueden recibir consuelo precisamente por lo que se les expresa. Aunque este sentido de los cuidados humanistas por parte de los robots es derivado de los cuidados exclusivamente humanos, y aunque está muy abierto a la crítica social y ética, no deja de ser una idea que vale la pena aclarar para cualquiera que esté interesado en las posibilidades y los límites de los cuidados por parte de los robots.

El error humano de la inteligencia artificial

https://www.agendadigitale.eu/cultura-digitale/the-human-error-of-artificial-intelligence/

En enero de 2020, Robert Julian-Borchak, un hombre negro, fue arrestado en Detroit por un crimen que no cometió solo por un error en un sistema de inteligencia artificial de reconocimiento facial. Este, según el New York Times, fue el primer caso conocido de un ciudadano estadounidense arrestado por un error algorítmico.

El caso de Robert Julian-Borchak cuenta la historia de nuestro tiempo. Hoy en día, las fuerzas del orden y los tribunales utilizan cada vez más los sistemas de inteligencia artificial para monitorear, rastrear y perfilarnos y determinar nuestra posible inocencia o culpabilidad. Estas transformaciones no solo afectan a Estados Unidos. También en Europa, las lógicas algorítmicas se están incorporando rápidamente en los entornos de justicia penal [1] y la vigilancia policial predictiva. [2].

Como demuestra el ejemplo de Robert Julian-Borchak, el uso de estas tecnologías por los tribunales y las fuerzas del orden puede tener un impacto perjudicial sobre nuestros derechos y libertades, y esta es la razón por la que estos sistemas deben ser estudiados, probados, evaluados y, en ocasiones, prohibidos. .

En abril de 2021, la Comisión Europea publicó una nueva Propuesta de Reglamento sobre Inteligencia Artificial en Europa, cuyo objetivo es precisamente eso. La nueva propuesta no solo sugiere que debemos entender los sistemas de inteligencia artificial que se utilizan para perfilar a las personas (por agentes del orden, educadores, recursos humanos, etc.) como de alto riesgo, sino también prácticas como la puntuación social o la vigilancia biométrica en ‘tiempo real’. debería estar prohibido. La nueva propuesta también pide una mayor responsabilidad y transparencia en las formas en que se utiliza y se capacita la IA de alto riesgo. Lo que surge claramente de la propuesta de la Comisión de la UE es que los sistemas de inteligencia artificial destinados a la elaboración de perfiles humanos están expuestos a diferentes tipos de errores implícitos y sesgos en la elaboración de perfiles humanos que pueden amplificar las desigualdades en nuestra sociedad y pueden tener un impacto negativo en los derechos humanos.

La propuesta de la Comisión Europea de reglamento sobre inteligencia artificial es, en mi opinión, un paso adelante muy importante. Sin embargo, también creo que tenemos que ser realistas, aprender de la experiencia de GDPR y recordar que la implementación de propuestas legislativas como esta en Europa no es nada fácil. Lo cierto es que nuestra vida diaria se define ahora por una increíble cantidad de decisiones algorítmicas, que no son fácilmente controlables o gobernables.

La historia de Robert Julian-Borchak suena absurda, distópica y kafkiana. Es un caso extremo. En su extremo, sin embargo, nos enfrenta a una historia mucho más mundana y ordinaria: todos los días somos juzgados por sistemas de inteligencia artificial, y todos los días sus errores, sus sesgos pueden limitar nuestras libertades.

Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/

He notado que utiliza el término «inteligencia humanizada» para describir su investigación, en lugar de «inteligencia artificial». ¿Porqué es eso?

Sí, comencé a usar eso en un artículo en 2004. Estaba pensando en por qué trabajamos en inteligencia para robótica y sistemas de inteligencia artificial. No es que queramos crear estas funciones inteligentes fuera de nuestras interacciones con las personas. Estamos motivados por la experiencia humana, los datos humanos, las aportaciones humanas. La «inteligencia artificial» implica que es un tipo diferente de inteligencia, mientras que la «inteligencia humanizada» dice que es inteligente pero está motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales.

¿Cómo llegaste a este trabajo?

Fue principalmente motivado por mi investigación de doctorado. En ese momento, estaba trabajando en la formación de un robot manipulador para eliminar los peligros en un hospital. Esto fue en los días en que no tenías esos lugares agradables y seguros para colocar agujas. Las agujas se arrojaron a la misma basura que todo lo demás, y hubo casos en los que los trabajadores del hospital se enfermaron. Entonces estaba pensando en: ¿Cómo se diseñan robots para ayudar en ese entorno?

Así que, desde el principio, se trataba de construir robots que fueran útiles para las personas. Y fue reconocer que no sabíamos cómo construir robots para hacer muy bien algunas de estas tareas. Pero la gente los hace todo el tiempo, así que imitemos cómo lo hace la gente. Así es como empezó.

Luego estuve trabajando con la NASA y tratando de pensar en la futura navegación del rover de Marte. Y nuevamente, fue como: Los científicos pueden hacer esto muy, muy bien. Entonces, haría que los científicos teleoperaran estos rovers y miraran lo que estaban viendo en las cámaras de estos rovers, y luego tratarían de correlacionar cómo conducen en función de eso. Ese fue siempre el tema: ¿Por qué no voy a los expertos humanos, codifico lo que están haciendo en un algoritmo y luego hago que el robot lo entienda?

¿Estaban otras personas pensando y hablando sobre la inteligencia artificial y la robótica de esta manera centrada en el ser humano en ese entonces? ¿O eras un extraño atípico?

Oh, yo era un caso atípico totalmente extraño. Veía las cosas de manera diferente a todos los demás. Y en ese entonces no había una guía sobre cómo hacer este tipo de investigación. De hecho, cuando miro hacia atrás para ver cómo hice la investigación, lo haría de manera totalmente diferente. Existe toda esta experiencia y conocimiento que desde entonces ha surgido en el campo.

Inteligencia artificial y ética: dieciséis desafíos y oportunidades

https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics-sixteen-challenges-and-opportunities/

1. Seguridad técnica

La primera pregunta para cualquier tecnología es si funciona según lo previsto.

2. Transparencia y privacidad

Una vez que hayamos determinado que la tecnología funciona de manera adecuada, ¿podemos realmente comprender cómo funciona y recopilar datos de manera adecuada sobre su funcionamiento?

3. Uso beneficioso y capacidad para el bien

El objetivo principal de la IA es, como cualquier otra tecnología, ayudar a las personas a llevar vidas más largas, prósperas y satisfactorias.

4. Uso malicioso y capacidad para cometer el mal

Una tecnología que funcione perfectamente, como un arma nuclear, puede, cuando se utiliza para el uso previsto, causar un mal inmenso.

5. Sesgo en datos, conjuntos de entrenamiento, etc.

Una de las cosas interesantes de las redes neuronales, los caballos de batalla actuales de la inteligencia artificial, es que fusionan efectivamente un programa de computadora con los datos que se le proporcionan.

6. Desempleo / Falta de propósito y significado

Mucha gente ya ha percibido que la IA será una amenaza para determinadas categorías de puestos de trabajo.

7. Creciente desigualdad socioeconómica

Relacionado con el problema del desempleo está la cuestión de cómo sobrevivirá la gente si el desempleo aumenta a niveles muy altos.

8. Efectos ambientales

Los modelos de aprendizaje automático requieren enormes cantidades de energía para entrenar, tanta energía que los costos pueden ascender a decenas de millones de dólares o más.

9. Automatización de la ética

Una de las fortalezas de la IA es que puede automatizar la toma de decisiones, lo que reduce la carga sobre los humanos y acelera, potencialmente acelerando en gran medida, algunos tipos de procesos de toma de decisiones.

10. Descalificación moral y debilidad

Si entregamos nuestra capacidad de toma de decisiones a las máquinas, tendremos menos experiencia en la toma de decisiones.

11. Conciencia, personalidad y «derechos de los robots» de la IA

Algunos pensadores se han preguntado si las IA eventualmente podrían volverse conscientes de sí mismas, alcanzar su propia voluntad o merecer reconocimiento como personas como nosotros.

12. AGI y superinteligencia

Si o cuando la IA alcance los niveles de inteligencia humana, haciendo todo lo que los humanos pueden hacer tan bien como el humano promedio, entonces será una Inteligencia General Artificial, una AGI, y será la única otra inteligencia de este tipo que exista en la Tierra en el nivel humano.

13. Dependencia de la IA

Los humanos dependen de la tecnología. Siempre lo hemos hecho, desde que somos «humanos»; nuestra dependencia tecnológica es casi lo que nos define como especie.

14. Adicción impulsada por la IA

Los fabricantes de aplicaciones para teléfonos inteligentes han convertido la adicción en una ciencia, y los videojuegos y las aplicaciones con inteligencia artificial pueden ser adictivos como las drogas.

15. Aislamiento y soledad

La sociedad está en crisis de soledad. Por ejemplo, recientemente un estudio encontró que «200,000 personas mayores en el Reino Unido no han tenido una conversación con un amigo o familiar en más de un mes».

16. Efectos sobre el espíritu humano

Todas las áreas de interés mencionadas anteriormente tendrán efectos sobre cómo los humanos se perciben a sí mismos, se relacionan entre sí y viven sus vidas.

Inteligencia artificial y el futuro de los humanos

https://www.forbes.com/sites/forbestechcouncil/2021/05/06/artificial-intelligence-and-the-future-of-humans/

La inteligencia artificial ya está impactando prácticamente en todas las industrias y en todos los seres humanos. Esta increíble tecnología ha traído muchas cosas buenas y cuestionables a nuestras vidas y creará un impacto aún mayor en las próximas dos décadas.

Según Ray Kurzweil, uno de los futuristas más conocidos, las computadoras tendrán el mismo nivel de inteligencia que los humanos para 2029. Kurzweil declaró a Futurism, «2029 es la fecha constante que he predicho para cuando una IA pasará una prueba de Turing válida. y por lo tanto alcanzar los niveles humanos de inteligencia. He fijado la fecha de 2045 para la ‘Singularidad’, que es cuando multiplicaremos nuestra inteligencia efectiva mil millones de veces al fusionarnos con la inteligencia que hemos creado «.

Por muy notable que sea esta tecnología, no deja de tener grandes preocupaciones para la humanidad. Películas como Ex Machina, Transcendence y Her nos muestran el lado oscuro de la IA que alcanza la conciencia a nivel humano. También ha habido algunas preocupaciones serias provenientes de científicos, políticos y tecnólogos que no deben tomarse a la ligera.

La IA mejorará la situación de la mayoría de las personas, pero sus avances también afectarán lo que realmente significa ser humano en el siglo XXI. Este artículo explora la yuxtaposición de los riesgos y beneficios de lo que está por venir.

MÁS PARA TI

Inteligencia artificial (IA): ¿Qué nos depara el 2021?

Cómo afectará la IA al futuro del trabajo y la vida

La primera fábrica de empresas de robótica del mundo se encuentra en la «isla de los robots» en Dinamarca

El lado positivo del futuro de la IA

• Medicina de precisión. La IA se utiliza actualmente para comprender cómo la genética, el entorno y el estilo de vida de una persona pueden ayudar a determinar el mejor enfoque para prevenir o tratar una determinada enfermedad. La terapéutica digital, los medicamentos diseñados a medida y el diagnóstico mejorado ya están haciendo que los tratamientos sean más asequibles, accesibles, precisos y están ayudando a los humanos a vivir vidas más largas y saludables.

• Automóviles sin conductor. El aprendizaje profundo sobresale en tareas que involucran el reconocimiento de patrones, y los autos modernos serán mejores que los humanos cuando se trata de percepción, predicción y planificación sobre la marcha. IEEE Spectrum señaló que un pronóstico tiene autos autónomos manejando el 70% de todas las millas recorridas para 2035. Se proyecta que los accidentes fatales de conducción disminuyan drásticamente a medida que los vehículos autónomos se generalicen y hagan que las muertes por errores del conductor sean cosa del pasado.

• Asistentes virtuales. Los asistentes virtuales de IA como Siri, Alexa y otros programas que utilizan el procesamiento del lenguaje natural para comprender y realizar tareas asignadas por humanos están despegando. La tecnología de voz ya está haciendo la vida más fácil y se está utilizando ampliamente, pero jugará un papel mucho más crítico en nuestras vidas en el futuro cuando los asistentes virtuales estén conectados a robots y sean parte de la singularidad.

• Implantables. La amplia adopción de interfaces cerebro-máquina conducirá a una expansión masiva de la inteligencia humana y podría permitir a los humanos resolver muchas afecciones médicas, como parálisis, ceguera, ansiedad y adicción. El uso de implantables para reprogramar la biología humana subyacente puede permitirnos mejorar y mejorar en unos pocos años. Por ejemplo, un mono con implantes en su cerebro hechos por la compañía de Elon Musk, Neuralink, ahora puede jugar Pong usando solo sus pensamientos. Imagínese lo que los humanos podrían hacer una vez que se comercialice.

El lado oscuro del futuro de la IA

• Vigilancia masiva. El amplio uso de la inteligencia artificial por parte de las grandes empresas de tecnología ha provocado la destrucción de la privacidad digital. El sistema de crédito social de China expande esa vigilancia no solo al mundo digital sino a todos los aspectos de la vida, juzgando el comportamiento y la confiabilidad de los ciudadanos y colocando un control draconiano sobre su población. Con la llegada de los pasaportes Covid-19, muchos temen que este sea el primer paso para implementar este tipo de control en todo el mundo occidental.

• Guerra moderna. En la próxima gran guerra, la IA podría ser el factor determinante entre ganar y perder. Con vehículos submarinos no tripulados, constelaciones de dispositivos robóticos inteligentes, drones, robots y misiles guiados con precisión, la tecnología decidirá la supremacía de la guerra moderna. Los robots son más rápidos, más fuertes, más precisos y siguen las órdenes mucho mejor que los humanos y podrían volver obsoletos a los soldados.

• Pérdidas masivas de puestos de trabajo. El CEO de Udacity, Gabe Dalporto, dijo a Time que estima que mil millones de personas perderán sus trabajos debido a la IA para 2030 y que la pandemia de Covid-19 solo ha acelerado esta tendencia. En términos de escala, estas pérdidas de empleo generalizadas podrían rivalizar con el abandono del trabajo agrícola durante la década de 1900 en los Estados Unidos y Europa. Desafortunadamente, esta tendencia tecnológica es inevitable y probablemente aumentará la desigualdad y colocará el poder en manos de unos pocos.

La revolución que se avecina en la economía de la complejidad

https://www.advisorperspectives.com/articles/2021/03/29/the-coming-revolution-in-complexity-economics

La economía neoclásica estándar (EE) es un fracaso y está impulsando muchas de las crisis que enfrenta nuestro mundo.

Se necesita un nuevo enfoque para estudiar la economía y desarrollar políticas para guiar a la sociedad hacia adelante en las formas en que organizamos las transacciones relacionadas con la producción, el consumo, las finanzas, la diversidad, el medio ambiente, los marcos de tiempo, las relaciones, el poder y más.

Este es el punto de partida y la conclusión del muy atractivo Simposio de otoño de 2019 del Instituto Santa Fe (SFI) .1 La transcripción editada del simposio aparece en Complexity Economics: Dialogues of the Applied Complexity Network (SFI Press, 2020), editado por Brian Arthur, Eric Beinhocker y Allison Stanger. (La transcripción de una conferencia es una lectura mucho más entretenida que una colección de artículos.) Hubo 25 participantes en el simposio, en su mayoría académicos, pero solo tres formaban parte de una facultad de economía y solo uno de un importante departamento de economía estadounidense. Los otros incluían personas que se centraban en epidemiología, ciencia de la complejidad, física, aprendizaje automático, computación e inversión.

Dos temas dominaron la conferencia: ¿Cuáles son los problemas con la economía estándar (EE) y cómo puede mejorar la economía de la complejidad (EC)? Dado que las aplicaciones en finanzas son el foco de muchos lectores de esta publicación, las presentaré a continuación.

Los participantes consideraron las suposiciones y el encuadre intelectual de la SE como falsas o inadecuadas y, por lo tanto, es poco probable que conduzcan a conclusiones y recomendaciones de política útiles. La teoría económica, afirmaron, se basa en supuestos no fundados en la realidad, incluido el equilibrio de todo el sistema como resultado y la maximización cuantificable de la utilidad como objetivo universal de los actores racionales, individuales y uniformes del sistema. SE asume que las acciones y los resultados se pueden agregar en medidas como el PIB a través de funciones lineales continuas donde no hay límites físicos para el sistema, muchos temas pueden descartarse como externalidades, los precios son una medida confiable de valor y los mercados son buenos y centrales. a todas las acciones. La economía es una estructura estable y existe fuera o por encima del resto del mundo.

Nada de eso es cierto según los profesionales de la CE. SE define un sistema extraño al que muchas personas valoran especialmente escapar, ya sea a través de actividades caritativas y espirituales o simplemente por ocio y jubilación.

Otros participantes llegaron a SE desde el otro extremo. ¿Cómo podemos considerar válido un sistema de pensamiento y política si cumple alguna de las siguientes condiciones:

No puede predecir las principales crisis financieras, o incluso las próximas recesiones;

Ha provocado el cambio climático y la degradación ambiental masiva;

Crea un descontento social masivo frente a la «prosperidad»;

Permite la esclavitud, el trabajo infantil y otras formas de explotación;

Socava las acciones gubernamentales y otras formas de decisiones colectivas;

No se puede explicar la ausencia de inflación frente a las políticas de la última década;

No tiene una teoría satisfactoria del cambio o del crecimiento económico;

No tiene forma de fomentar o hacer cumplir adecuadamente los compromisos a largo plazo;

No se ocupa del miedo, la esperanza, el compartir, el arte o muchas otras influencias «no económicas»; y

No incorpora la importancia de la energía y la entropía en la actividad económica.

El último ámbito de crítica a la ES proviene de su carácter cerrado e ideológico. Las principales escuelas de SE educan a la próxima generación de economistas sobre las mismas teorías y proporcionan los miembros de muchos organismos gubernamentales, incluido el Consejo de Asesores Económicos y el Departamento del Tesoro. La Reserva Federal financia la mayor parte de la investigación sobre economía monetaria, financiando a quienes exploran dentro del marco aceptado. El trabajo interdisciplinario no se fomenta y no ayuda con la permanencia. Los textos fundamentales, como The Road to Serfdom (Hayek) y Capitalism and Freedom (Friedman), utilizan objetivos políticos para definir el pensamiento económico.

Al menos así lo vieron los asistentes al simposio de SFI.

La EC es tanto un enfoque como una teoría de la economía. Ve la economía como un «sistema de creación de orden», una colección de arreglos, formada por verbos más que números, una ecología, no una máquina, un sistema que no es racional ni está en equilibrio. La práctica a menudo implica observar o crear un conjunto de actores con conocimientos, habilidades y motivaciones imperfectos, y soltarlos para ver qué sucede. Existe una gran diversidad entre los actores del sistema, y ​​muchos tienen objetivos no económicos, están impulsados ​​por un propósito y valoran el empoderamiento sobre la riqueza financiera.

El simposio se llevó a cabo durante dos días en octubre de 2019, justo cuando, sin que nadie lo supiera, aparecían los primeros casos de lo que se convirtió en COVID-19 en China. El primer día, Eric Beinhocker, autor de El origen de la riqueza (2005), ofreció una crítica vigorosa de la economía tal como se enseña y se practica en los Estados Unidos. La teoría económica, según Beinhocker, da forma a la economía, la política y los objetivos de la sociedad. se «permite» perseguir, por lo que necesitamos un enfoque que sea más humanista, inclusivo, cooperativo y res

¿Mentes sin cerebro?

https://www.commonwealmagazine.org/minds-without-brains

En opinión de muchos científicos, la inteligencia artificial (IA) no está a la altura de las expectativas de sus defensores. Todavía no tenemos coches seguros sin conductor, y es probable que no los tengamos en un futuro próximo. Tampoco los robots están a punto de asumir todas nuestras tareas domésticas para que podamos dedicar más tiempo al ocio. En el lado positivo, los robots tampoco están dispuestos a apoderarse del mundo y convertir a los humanos en esclavos como lo hacen en las películas.

Sin embargo, existe un motivo real de preocupación por el impacto que la IA ya está teniendo en nosotros. Como escriben Gary Marcus y Ernest Davis en su libro Rebooting AI: Building Artificial Intelligence We Can Trust, «simplemente no se puede confiar en la IA que tenemos ahora». En su opinión, cuanta más autoridad cedamos prematuramente a los sistemas de máquinas actuales, más preocupados deberíamos estar. “Algunas fallas son leves, como una Alexa que se ríe al azar (o te despierta en medio de la noche, como le sucedió a uno de nosotros), o un iPhone que autocorrige lo que se quería decir como ‘Feliz cumpleaños, querido Theodore’ en ‘Feliz Cumpleaños, muerto Theodore ‘”, escriben. «Pero otros, como los algoritmos que promueven noticias falsas o prejuicios contra los solicitantes de empleo, pueden ser problemas graves».

Marcus y Davis citan un informe del AI Now Institute que detalla los problemas de inteligencia artificial en muchos dominios diferentes, incluida la determinación de elegibilidad para Medicaid, sentencias de cárcel y evaluaciones de maestros:

Los accidentes repentinos en Wall Street han provocado caídas temporales del mercado de valores y se han producido terribles invasiones de privacidad (como la vez que Alexa grabó una conversación y la envió sin querer a una persona al azar en la lista de contactos del propietario); y múltiples accidentes automovilísticos, algunos fatales. No nos sorprendería ver un mal funcionamiento importante provocado por la inteligencia artificial en una red eléctrica. Si esto ocurre en pleno verano o en pleno invierno, una gran cantidad de personas podría morir.

El científico informático Jaron Lanier ha citado los aspectos más oscuros de la IA, ya que ha sido explotada por gigantes de las redes sociales como Facebook y Google, donde solía trabajar. En opinión de Lanier, las plataformas de redes sociales impulsadas por la inteligencia artificial promueven el fraccionalismo y la división entre los usuarios, como se demostró claramente en las elecciones de 2016 y 2020, cuando los piratas informáticos rusos crearon cuentas de redes sociales falsas para atraer a los votantes estadounidenses hacia Donald Trump. Como escribe Lanier en su libro Diez argumentos para eliminar sus cuentas de redes sociales ahora mismo, las redes sociales impulsadas por la inteligencia artificial están diseñadas para captar la atención del usuario e invadir su privacidad, para abrumarla con contenido que no ha sido verificado ni examinado. De hecho, concluye Lanier, está diseñado para «convertir a la gente en idiotas».

Como señala el profesor de derecho de Brooklyn College y colaborador de Commonweal, Frank Pasquale, en su libro, The Black Box Society: The Secret Algorithms That Control Money and Information, la pérdida de la privacidad individual también es alarmante. Y mientras poderosas empresas, instituciones financieras y agencias gubernamentales ocultan sus acciones detrás de acuerdos de no divulgación, “métodos patentados” y reglas mordazas, las vidas de los consumidores comunes son libros cada vez más abiertos para ellos. «Todo lo que hacemos en línea se registra», escribe Pasquale:

Las únicas preguntas que quedan son para quién estarán disponibles los datos y durante cuánto tiempo. El software anonimizado puede protegernos por un tiempo, pero ¿quién sabe si tratar de esconderse no es en sí mismo la señal de alerta definitiva para las autoridades vigilantes? Las cámaras de vigilancia, los intermediarios de datos, las redes de sensores y las «supercookies» registran qué tan rápido conducimos, qué píldoras tomamos, qué libros leemos, qué sitios web visitamos. La ley, tan agresivamente protectora del secreto en el mundo del comercio, guarda cada vez más silencio cuando se trata de la privacidad de las personas.

Mientras tanto, como señala Lanier, estas grandes empresas de tecnología están públicamente comprometidas con una extravagante «carrera» de inteligencia artificial que a menudo priorizan por encima de todo. Lanier cree que esta carrera es una locura. “Olvidamos que la IA es una historia que los científicos informáticos inventamos para ayudarnos a conseguir financiación en un tiempo, cuando dependíamos de las subvenciones de las agencias gubernamentales. Fue un teatro pragmático. Pero ahora la IA se ha convertido en una ficción que ha superado a sus autores «.

Las plataformas de redes sociales impulsadas por la inteligencia artificial promueven el fraccionalismo y la división entre los usuarios, como se demostró claramente en las elecciones de 2016 y 2020.

En opinión de Marcus y Davis, todo el campo necesita reenfocar su energía en hacer que la IA responda mejor al sentido común. Y hacer esto requerirá un replanteamiento completo de cómo programamos las máquinas.

«La capacidad de concebir la propia intención y luego usarla como una pieza de evidencia en el razonamiento causal es un nivel de autoconciencia (si no de conciencia) que ninguna máquina que yo conozca ha logrado», escribe Judea Pearl, una destacada IA proponente que ha pasado toda su carrera investigando la inteligencia de las máquinas. “Me gustaría poder llevar a una máquina a la tentación y hacer que diga ‘No’”. En opinión de Pearl, las computadoras actuales no constituyen realmente inteligencia artificial. Simplemente constituyen el nivel del suelo de lo que puede y probablemente conducirá a una verdadera inteligencia artificial.

El gobierno se apresura a implementar la inteligencia artificial, pero ¿a qué costo para nuestra libertad?

https://www.aclu.org/news/national-security/the-government-is-racing-to-deploy-ai-but-at-what-cost-to-our-freedom/

El gobierno de los Estados Unidos se está embarcando en una carrera a toda velocidad para desarrollar y desplegar inteligencia artificial en nombre de la seguridad nacional, pero sus planes para proteger los derechos civiles y las libertades civiles apenas han tomado forma. Basado en un nuevo y amplio informe de una comisión ordenada por el Congreso, está claro que las agencias de inteligencia y las fuerzas armadas de EE. UU. Buscan integrar la inteligencia artificial en algunas de las decisiones más profundas del gobierno: a quién vigila, a quién agrega a las listas de vigilancia del gobierno, a quién etiqueta. un «riesgo» para la seguridad nacional, e incluso contra quién se dirige con armas letales.

En muchas de estas áreas, el despliegue de la IA ya parece estar bastante avanzado. Pero no sabemos casi nada sobre los sistemas específicos que están usando agencias como el FBI, el Departamento de Seguridad Nacional, la CIA y la Agencia de Seguridad Nacional, y mucho menos sobre las salvaguardas que existen, si las hay.

Es por eso que la ACLU está presentando una solicitud de la Ley de Libertad de Información (FOIA) hoy en busca de información sobre los tipos de herramientas de inteligencia artificial que están implementando las agencias de inteligencia, qué reglas limitan su uso de la inteligencia artificial y qué peligros representan estos sistemas para la igualdad, el debido proceso y la privacidad. y libre expresión.

A principios de este mes, la Comisión de Seguridad Nacional sobre Inteligencia Artificial emitió su informe final, que describe una estrategia nacional para enfrentar las oportunidades y desafíos que plantea la IA. La comisión, compuesta por tecnólogos, líderes empresariales y expertos académicos, pasó más de dos años examinando cómo la IA podría afectar la seguridad nacional. Describe la IA como “una constelación de tecnologías” que “resuelven tareas que requieren percepción, cognición, planificación, aprendizaje, comunicación o acción física similares a las de los humanos; y tecnologías que pueden aprender y actuar de forma autónoma, ya sea en forma de agentes de software o robots incorporados «. Los sistemas de inteligencia artificial se utilizan cada vez más para tomar decisiones, recomendaciones, clasificaciones y predicciones que afectan a los estadounidenses y a las personas en el extranjero a medida que avanzamos en nuestra vida diaria.

El informe insta al gobierno federal, y especialmente a las agencias de inteligencia, a continuar desarrollando e implementando rápidamente sistemas de inteligencia artificial para una amplia gama de propósitos. Esos propósitos incluyen realizar vigilancia, explotar información de redes sociales y datos biométricos, realizar análisis de inteligencia, contrarrestar la propagación de desinformación a través de Internet y predecir amenazas. El informe señala que las agencias de inteligencia individuales ya han avanzado hacia estos objetivos y pide una «integración ubicua de IA en cada etapa del ciclo de inteligencia» para 2025.

Si bien la inteligencia artificial puede prometer ciertos beneficios para la seguridad nacional, como mejorar la velocidad de algunas tareas y aumentar el juicio o el análisis humanos en otras, estos sistemas también plantean riesgos innegables para los derechos civiles y las libertades civiles.

De particular preocupación es la forma en que los sistemas de inteligencia artificial pueden estar sesgados contra las personas de color, las mujeres y las comunidades marginadas, y pueden usarse para automatizar, expandir o legitimar la conducta discriminatoria del gobierno. Los sistemas de inteligencia artificial pueden replicar sesgos incrustados en los datos utilizados para entrenar esos sistemas, y pueden tener tasas de error más altas cuando se aplican a personas de color, mujeres y comunidades marginadas debido a otras fallas en los datos subyacentes o en los propios algoritmos. Además, la inteligencia artificial se puede utilizar para guiar o incluso potenciar las actividades gubernamentales que durante mucho tiempo se han utilizado para escudriñar injusta e incorrectamente a las comunidades de color, incluida la vigilancia intrusiva, el interrogatorio de investigación, la detención y la creación de listas de vigilancia.

El informe de la comisión reconoce muchos de estos peligros y hace una serie de recomendaciones útiles, como evaluaciones obligatorias de derechos civiles, pruebas independientes de terceros y la creación de mecanismos de reparación sólidos. Pero, en última instancia, el informe prioriza el despliegue de IA, que dice que debe ser «inmediato», sobre la adopción de salvaguardias sólidas. La comisión debería haber ido más allá e insistir en que el gobierno establezca protecciones críticas de los derechos civiles ahora, al mismo tiempo que estos sistemas están siendo ampliamente desplegados por agencias de inteligencia y el ejército.

Un problema de umbral es que, cuando se trata de IA, incluso falta la transparencia básica. En junio de 2020, la Oficina del Director de Inteligencia Nacional publicó su Marco de Inteligencia Artificial para la Comunidad de Inteligencia e identificó la «transparencia» como uno de los principios básicos del marco. Pero no hay casi nada que mostrar. El público ni siquiera tiene información básica sobre las herramientas de inteligencia artificial que están desarrollando las agencias de inteligencia, a pesar de su potencial para dañar a los estadounidenses y a las personas en el extranjero. Tampoco está claro qué reglas concretas, si las hay, han adoptado estas agencias para protegerse contra el uso indebido de la inteligencia artificial en nombre de la seguridad nacional.

Nuestra nueva solicitud de FOIA tiene como objetivo arrojar luz sobre estas preguntas. Mientras tanto, el trabajo de diseñar protecciones básicas de IA debe avanzar. Si el desarrollo de sistemas de IA para nati