Diseña un sitio como este con WordPress.com
Comenzar

Por qué debemos democratizar la IA para invertir en la prosperidad humana, con Frank Pasquale

 Por un lado, Pasquale nos avisó advirtiendo de las terribles consecuencias de los algoritmos fuera de control. Destacó su capacidad para crear estragos en todas partes, al hacer cosas como perturbar el mercado de valores y arruinar las calificaciones crediticias. Por otro lado, debido a que Pasquale está en sintonía con la dinámica de la economía política y la maleficencia corporativa, también nos advirtió que no debemos centrarnos demasiado en las limitaciones tecnológicas y muy poco en las desagradables tendencias humanas. Encontró tanto a Wall Street como a Silicon Valley culpables de armar procesos algorítmicos opacos para expandir el poder, ocultar agendas ocultas y desviar la responsabilidad.

El nuevo libro de Pasquale, New Laws of Robotics: Defending Human Expertise in the Age of AI, adopta un enfoque profundamente diferente para desafiar el status quo. Desencantado con las visiones dominantes del progreso, libertarias, neoliberales y posthumanas que ofrecen cualquier cosa menos una visión progresista de cómo la automatización está preparada para dar forma al futuro de la atención médica, la educación, los conflictos militares, la desigualdad social e incluso la comprensión misma de la misma. significa ser humano, Pasquale contraataca con el poder de un recurso inesperado: la narrativa positiva.

Para democratizar la inteligencia artificial (IA), sostiene que debemos imaginar que es posible una política emancipadora, una que pueda dar forma a cómo se desarrolla e implementa la automatización, sin restringir los procesos clave de toma de decisiones a simplemente determinar la mejor manera de ahorrar dinero, mejorar eficiencias y fomentar la innovación, una innovación que el discurso honesto admitiría beneficia desproporcionadamente a las élites y muestra apatía, si no desprecio, por el resto. Para conceptualizar un mundo que no solo valora la dignidad humana sino que protege activamente la experiencia y el juicio humanos, Pasquale defiende las nuevas leyes de la robótica, leyes que pueden desviar a la sociedad de proclividades y prioridades peligrosas.

https://pando.com/2021/01/05/why-we-must-democratize-AI-invest-human-prosperity-with-Frank-Pasquale/

Anuncio publicitario

Por qué los robots bailarines son un problema realmente grande

 Así que nuestros amigos de Boston Dynamics están de vuelta, y no solo hace acto de presencia el ahora infame perro amarillo, también lo hacen dos robots humanoides y una especie de … cosa … jirafa … con ruedas. Es autorreferencial, se da cuenta de que la gente le tiene miedo a los perros amarillos, trata de calmar algunas de esas preocupaciones y dice «entendemos que 2020 fue difícil, pero esto podría hacerte sonreír». No está mal marketing, eso. Pero como dije, quiero ver esto desde una perspectiva ética y dar un análisis mesurado. ¿Estás listo? Bien, aquí va:

Odio esto.

Solo un par de Bro-Bots bailando

Eso no es exactamente lo que quiero decir; más precisamente, quiero expresar que esto es profundamente poco ético y lo odio. ¿Por qué no es ético? Pensemos en esto de varias maneras. La primera forma, y ​​la más sencilla, es pensar cínicamente, lo que equivaldría a decir que esto no es ético porque es un esfuerzo (y además transparente) convencer a las personas de que los productos de BD son inofensivos y no representan una amenaza para la vida o la integridad física. porque pueden bailar. “¡Los robots son divertidos! Están aquí para trabajar para nosotros y entretenernos, así que no nos preocupemos y por favor, dejemos de hablar de Black Mirror «.

https://medium.com/swlh/why-the-dancing-robots-are-a-really-really-big-problem-4faa22c7f899

El año en que los algoritmos escaparon de la cuarentena: una revisión de 2020

Reacción

La aceleración de la automatización de la sociedad no fue sin oposición. En agosto, estudiantes británicos salieron a las calles coreando que el algoritmo que asignaba automáticamente sus calificaciones no era legítimo (usaron otra palabra). Como resultado, el gobierno británico retrocedió y mantuvo las calificaciones que habían dado los maestros.

Los reguladores y los tribunales de toda la Unión Europea tomaron medidas drásticas contra algunos experimentos de automatización. Las cámaras que detectaban a personas que no llevaban máscaras faciales en Francia se desactivaron después de que la autoridad de protección de datos del país las declarara ilegales. En los Países Bajos, un tribunal falló en contra de SyRI, un sistema que intentó detectar automáticamente a los defraudadores en los servicios de asistencia social, calificándolo de desproporcionado. En Austria, se suspendió un algoritmo que intentaba clasificar a las personas desempleadas en función de su «empleabilidad».

Embestida 

Los gobiernos no se sintieron impresionados por estas decisiones. En los Países Bajos, se presentó un proyecto de ley para establecer un nuevo sistema similar a SyRI, a una escala mucho mayor. La calificación automatizada de los estudiantes se permitió en varios países, incluida Alemania, a pesar de las graves preocupaciones sobre su equidad.

En varios países de la UE, como Francia y Grecia, la policía se está preparando para desplegar reconocimiento facial en vivo. Esto permitiría a las fuerzas de coerción identificar a los individuos de un grupo, en tiempo real. Aislar a los manifestantes y quitarles la protección que brinda el anonimato en la acción de grupo quita cualquier sustancia a la libertad de reunión.

A pesar de los pedidos de interdicción, una guerra breve pero intensa en Karabaj demostró la utilidad de las armas autónomas. Las fuerzas azerbaiyanas utilizaron al menos tres modelos diferentes de drones que son capaces de identificar y destruir un objetivo automáticamente. Algunos analistas creen que la innovación táctica aportada por estas nuevas armas contribuyó a la victoria de Azerbaiyán.

https://algorithmwatch.org/en/review-2020/

por qué la desigualdad y el declive económico impulsan la polarización

 La polarización social y política es una fuente importante de conflicto en muchas sociedades. Comprender sus causas se ha convertido en una prioridad para los académicos de todas las disciplinas. Demostramos que cambios en las estrategias de socialización análogos a la polarización política pueden surgir como una respuesta localmente beneficiosa tanto al aumento de la desigualdad de la riqueza como al declive económico. En muchos contextos, la interacción con diversos grupos externos confiere beneficios de la innovación y la exploración mayores que los que surgen de interactuar exclusivamente con un grupo interno homogéneo. Sin embargo, cuando el entorno económico favorece la aversión al riesgo, una estrategia de búsqueda de interacciones grupales de menor riesgo puede ser importante para mantener la solvencia individual. Nuestro modelo muestra que en condiciones de declive económico o creciente desigualdad, algunos miembros de la población se benefician al adoptar una estrategia de aversión al riesgo que favorece al grupo. Además, mostramos que tal polarización dentro del grupo puede extenderse rápidamente a toda la población y persistir incluso cuando las condiciones que la produjeron se han revertido.

https://www.hertie-school.org/en/why-inequality-and-economic-decline-drive-polarisation

La mayor promesa de la IA en el bienestar es la escalabilidad

 la gente tiene la sensación de que los desafíos de la IA son muy únicos, mientras que yo veo los desafíos más como una amplificación de los desafíos existentes. Hay preguntas con las que hemos estado lidiando durante mucho tiempo, y la IA las amplifica. Debido a que con la IA todo es más grande y más rápido, pone más luz sobre los desafíos existentes que siempre estuvieron ahí, pero quizás menos evidentes.

https://ieai.mcts.tum.de/wp-content/uploads/2020/12/Reflections-on-AI-Ethics_Y-LanBoureau_V3.pdf

El documento que obligó a Timnit Gebru a salir de Google

 Gebru, una líder ampliamente respetada en la investigación de la ética de la IA, es conocida por ser coautora de un artículo innovador que mostró que el reconocimiento facial es menos preciso para identificar a las mujeres y las personas de color, lo que significa que su uso puede terminar discriminándolas. También cofundó el grupo de afinidad Black in AI y defiende la diversidad en la industria tecnológica. El equipo que ayudó a construir en Google es uno de los más diversos en inteligencia artificial e incluye muchos expertos líderes por derecho propio. Sus compañeros en el campo la envidiaban por producir un trabajo crítico que a menudo desafiaba las prácticas convencionales de IA.

https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/

Nemitz: “Nada ilegal para los humanos puede ser legal para la inteligencia artificial”

 “La privacidad se esfumó”, proclama uno de los consultados en el documental iHuman de la cineasta Tonje Hessen Schai, dedicado a diseccionar un mundo digitalizado, vigilado por cámaras omnipresentes y controlado por la inteligencia artificial.

El documental, que está disponible para su compra por organizaciones y centros educativos, fue presentado en una mesa redonda de la OCDE, contando con expertos de primera fila. Y no es, ni muchísimo menos, un alegato contra el uso de la tecnología, sino, en todo caso, contra su abuso sin control.

“Es fascinante, y a veces algo aterradora, la rapidez con que está cambiando la relación entre nosotros, los humanos, y la tecnología. El documental es un thriller político de cómo la IA está cambiando nuestro mundo y los desafíos éticos que debemos afrontar hoy”, alega la autora, señalando que estamos en una “época postprivacidad y la IA está en todas partes, recolectando nuestros datos”.

La guerra que se avecina contra los algoritmos ocultos que atrapan a las personas en la pobreza

 Un grupo creciente de abogados está descubriendo, navegando y luchando contra los sistemas automatizados que niegan la vivienda, el empleo y los servicios básicos deficientes.

https://www.technologyreview.com/2020/12/04/1013068/algorithms-create-a-poverty-trap-lawyers-fight-back/

Pensando en "lo humano"

 Lo que es evidente también es que las máquinas seguirán mejorando, serán más inteligentes y comenzarán a integrarse cada vez más en nuestras vidas: en nuestros lugares de trabajo, en nuestro juego y en nuestros cuerpos.

Algo que me llamó la atención al recordar el triunfo de AlphaGo es cómo nos concebimos cada vez más a nosotros mismos, es decir, lo que significa ser humano, en comparación con nuestros rivales mecánicos. Parece que delimitamos un determinado territorio, lo llamamos «humano» y ponemos todo lo demás fuera.

Lo cual está bien, excepto en el caso de los robots y la inteligencia artificial, que están llegando a ocupar cada vez más el territorio que solíamos pensar como exclusivamente nuestro. Lo que significa que siempre estamos cambiando a un terreno cada vez más resbaladizo cuando tratamos de definir preguntas realmente importantes, como ¿qué significa ser humano? ¿Qué tenemos de especial? Y, en consecuencia: ¿a quién queremos otorgar consideración ética?

https://itdfproject.org/thinking-about-the-human/

Elección 2020: Tecnología, Democracia y el camino a seguir

 LA RELACIÓN COMPLICADA ENTRE TECNOLOGÍA Y DEMOCRACIA es muy clara a raíz de las elecciones de 2020. Cuando las empresas de tecnología aspiran con orgullo a revolucionar la forma convencional de hacer negocios en el mercado, podemos celebrar la innovación y la competencia. Pero, ¿qué sucede cuando los mismos esfuerzos perturban la democracia misma? Nuestra tarea entonces es examinar preguntas sobre los modelos de negocios de las empresas de redes sociales, la política tecnológica y la relación entre la disrupción tecnológica y los derechos democráticos.

https://hai.stanford.edu/sites/default/files/2020-11/HAI_CyberPolicy_IssueBrief_8_Nov2020.pdf?sf133724854=1