Diseña un sitio como este con WordPress.com
Comenzar

Actitud de los estudiantes universitarios hacia las cuestiones éticas de la inteligencia artificial en una universidad internacional de Japón

https://www.readcube.com/articles/10.1007/s00146-021-01168-2

Hemos examinado la actitud y la percepción moral de 228 estudiantes universitarios (63 japoneses y 165 no japoneses) hacia la inteligencia artificial (IA) en una universidad internacional en Japón. Se pidió a los estudiantes que seleccionaran un problema ético más importante asociado con la IA en el futuro de una lista de nueve problemas éticos sugeridos por el Foro Económico Mundial, y que explicaran por qué creían que los problemas elegidos eran los más importantes. La mayoría de los estudiantes (n = 149, 65%) eligieron el desempleo como el principal problema ético relacionado con la IA. El segundo grupo más grande de estudiantes (n = 29, 13%) estaba preocupado por cuestiones éticas relacionadas con la IA emocional, incluido el impacto de la IA en el comportamiento y las emociones humanas. El documento analiza los resultados en detalle y concluye que, si bien los legisladores deben considerar cómo mejorar el impacto de la IA en el empleo, los ingenieros de IA también deben considerar los aspectos emocionales de la IA en la investigación y el desarrollo.

Anuncio publicitario

La IA está matando la elección y el azar, lo que significa cambiar lo que significa ser humano

https://theconversation.com/ai-is-killing-choice-and-chance-which-means-changing-what-it-means-to-be-human-151826

La historia del uso de la tecnología por parte de los seres humanos siempre ha sido una historia de coevolución. Filósofos, desde Rousseau hasta Heidegger y Carl Schmitt, han argumentado que la tecnología nunca es una herramienta neutral para lograr fines humanos. Las innovaciones tecnológicas, desde las más rudimentarias hasta las más sofisticadas, remodelan a las personas a medida que utilizan estas innovaciones para controlar su entorno. La inteligencia artificial es una herramienta nueva y poderosa, y también está alterando a la humanidad.

La escritura y, más tarde, la imprenta hicieron posible registrar cuidadosamente la historia y difundir fácilmente el conocimiento, pero eliminó tradiciones centenarias de narración oral. Las ubicuas cámaras digitales y telefónicas han cambiado la forma en que las personas experimentan y perciben los eventos. Los sistemas GPS ampliamente disponibles han significado que los conductores rara vez se pierden, pero la dependencia de ellos también ha atrofiado su capacidad nativa para orientarse.

La IA no es diferente. Si bien el término IA evoca ansiedades sobre robots asesinos, desempleo o un estado de vigilancia masiva, existen otras implicaciones más profundas. A medida que la IA da forma cada vez más a la experiencia humana, ¿cómo cambia esto lo que significa ser humano? Un elemento central del problema es la capacidad de una persona para tomar decisiones, en particular los juicios que tienen implicaciones morales.

AI: libertad interior y libertad exterior

 Interesante explicación del contraste entre el deseo de explicaciones, típico de la Ilustración, y el interés en usar IA en la que se renuncia a la explicación. Interés en IA en usos simples y  problemas con el uso de IA por terceros sobre nosotros sin nuestra cooperación.

No se debe permitir que la inteligencia artificial reemplace la imperfección de la empatía humana

En el corazón del desarrollo de la IA parece estar la búsqueda de la perfección. Y podría ser tan peligroso para la humanidad como el que surgió de las ideas filosóficas y pseudocientíficas del siglo XIX y principios del XX y condujo a los horrores del colonialismo, la guerra mundial y el Holocausto. En lugar de una «raza superior» que gobierne a los humanos, podríamos terminar con una máquina.

Si esto parece extremo, considere el perfeccionismo antihumano que ya es fundamental para el mercado laboral. Aquí, la tecnología de IA es el siguiente paso en la premisa de máxima productividad que reemplazó la artesanía individual con la línea de producción de fábrica. Estos cambios masivos en la productividad y la forma en que trabajamos crearon oportunidades y amenazas que ahora se verán agravadas por una «cuarta revolución industrial» en la que la IA reemplaza aún más a los trabajadores humanos.

Varios trabajos de investigación recientes predicen que, dentro de una década, la automatización reemplazará la mitad de los trabajos actuales. Entonces, al menos en esta transición a una nueva economía digitalizada, muchas personas perderán sus medios de vida. Incluso si asumimos que esta nueva revolución industrial engendrará una nueva fuerza laboral que será capaz de navegar y dominar este mundo dominado por los datos, todavía tendremos que enfrentar importantes problemas socioeconómicos. Las interrupciones serán inmensas y deberán ser examinadas.

El objetivo final de la IA, incluso la IA estrecha que maneja tareas muy específicas, es superar y perfeccionar todas las funciones cognitivas humanas. Eventualmente, los sistemas de aprendizaje automático pueden programarse para ser mejores que los humanos en todo.

No consuma noticias, entiéndalas.
Sin embargo, es posible que nunca desarrollen el toque humano: empatía, amor, odio o cualquiera de las otras emociones autoconscientes que nos hacen humanos. Eso es a menos que les atribuyamos estos sentimientos, que es lo que algunos de nosotros ya estamos haciendo con nuestros «Alexas» y «Siris».

Productividad versus toque humano
La obsesión por la perfección y la “hiper-eficiencia” ha tenido un impacto profundo en las relaciones humanas, incluso en la reproducción humana, ya que las personas viven sus vidas en realidades virtuales enclaustradas de su propia creación. Por ejemplo, varias empresas con sede en Estados Unidos y China han producido muñecos robóticos que se están vendiendo rápidamente como sustitutos de la pareja.

https://theconversation.com/artificial-intelligence-must-not-be-allowed-to-replace-the-imperfection-of-human-empathy-151636

Robots, IA y dignidad humana

En un mundo de robots antropomórficos impulsados por inteligencia artificial, existe el peligro de que comencemos a perder nuestro ya tenue control sobre la idea fundamental de que todo ser humano tiene un gran valor: la idea de la dignidad humana.

Olvídese de la experiencia del usuario. La IA debe centrarse en la «experiencia ciudadana»

Los gigantes tecnológicos y sus plataformas y soluciones digitales impulsadas por inteligencia artificial pueden afectar el destino de los líderes mundiales, los estados nacionales, las corporaciones multinacionales, el mercado de valores global y las personas por igual.
Los creadores de las principales plataformas digitales, así como los diseñadores y desarrolladores de sistemas de IA ubicuos, tratan a las personas como meros usuarios, clientes o puntos de datos, a menudo ignorando por completo el papel y los derechos del individuo como ciudadano.
Como resultado, los usuarios y clientes individuales se eliminan del contexto social con terribles consecuencias. El individuo puede convertirse inconscientemente en un usuario que difunde información errónea. Un cliente mal informado puede convertirse en un insurgente violento. O puede ser tratada injustamente por un sistema de inteligencia artificial sesgado mientras solicita un trabajo o actualiza su póliza de seguro.
¿Por qué el diseño de experiencias ciudadanas?
Ahora, a medida que el impacto social de las soluciones de IA se está volviendo obvio, sus efectos, así como sus principios de diseño y desarrollo, deben considerarse desde el punto de vista de los ciudadanos y la sociedad.
Ya en la actualidad, estamos viendo un trabajo increíble realizado para descubrir los efectos de los sistemas de IA sesgados y su impacto en varios campos, desde la atención médica hasta la investigación científica y desde la justicia penal hasta los servicios financieros. Al mismo tiempo, hemos sido testigos de desarrollos positivos en torno a los derechos y prácticas de los datos.
Pero la regulación de las empresas de tecnología, como GDPR o iniciativas de gobernanza de datos, no es suficiente. De manera similar, el campo emergente de la auditoría algorítmica aún no tiene los medios suficientes para afectar directamente el desarrollo de la IA y sus prácticas. Las juntas de ética de la IA actuales tampoco están cambiando el curso del desarrollo de la IA a una escala mayor con la suficiente rapidez.
El impacto más efectivo y sostenible en el campo de la IA solo se logrará si se garantiza que el diseño y el desarrollo de soluciones de IA se guíen concretamente por valores y principios centrados en los ciudadanos.
Anteriormente, se consideraba que la “experiencia ciudadana” pertenecía únicamente al ámbito del servicio público. Pero no más. Hoy en día, necesitamos un enfoque reflexivo centrado en el ciudadano que pertenezca a la caja de herramientas general de todo diseñador y desarrollador de IA.
Concretamente, necesitamos empresas de inteligencia artificial, científicos de datos y diseñadores que piensen y actúen como ciudadanos. Necesitamos expertos en experiencia ciudadana que lleven la comprensión social al núcleo del pensamiento, el diseño y el desarrollo de productos.
Cómo empezar a pensar en el diseño de experiencias ciudadanas para la IA
Entonces, ¿cómo podemos crear una base para la práctica sostenible del diseño de experiencias ciudadanas que realmente tenga como objetivo crear soluciones de inteligencia artificial que tengan en cuenta al individuo como ciudadano, que pertenece a un tejido más amplio de la sociedad?

Gartner: el futuro de la IA no es tan optimista como algunos podrían pensar

 El informe aborda cinco predicciones diferentes para el mercado de la IA y ofrece recomendaciones sobre cómo las empresas pueden abordar esos desafíos y adaptarse al futuro:

  • Para 2025, los modelos de IA previamente entrenados se concentrarán en gran medida entre el 1% de los proveedores, lo que hará que el uso responsable de la IA sea una preocupación social.
  • En 2023, el 20% de los ataques de adquisición de cuentas exitosos utilizarán deepfakes como parte de los ataques de ingeniería social.
  • Para 2024, el 60% de los proveedores de inteligencia artificial incluirán la mitigación de daños / uso indebido como parte de su software.
  • Para 2025, el 10% de los gobiernos evitarán las preocupaciones por la privacidad y la seguridad mediante el uso de poblaciones sintéticas para capacitar a la IA
  • Para el 2025, el 75% de las conversaciones en el lugar de trabajo se grabarán y analizarán para su uso en la adición de valor organizacional y la evaluación de riesgos.

https://www.techrepublic.com/article/gartner-the-future-of-ai-is-not-as-rosy-as-some-might-think/

Actores públicos sin valores públicos: legitimidad, dominación y regulación del sector tecnológico

La escala y la asimetría del poder de las empresas de tecnología comercial sobre las personas a través de los datos, combinada con la creciente participación del sector privado en la gobernanza pública, significa que cada vez más, las personas no tienen la capacidad de optar por no participar en las empresas de tecnología. Al mismo tiempo, esas empresas están interviniendo cada vez más a nivel de la población de formas que tienen implicaciones para la vida social y política. Esto crea el potencial para las relaciones de poder de dominación y exige que decidamos qué constituye la legitimidad para actuar sobre el público. La ética empresarial y el derecho privado no están diseñados para responder a estas preguntas, que son principalmente políticas. Si las personas han perdido el derecho a desvincularse de las tecnologías comerciales, es posible que debamos hacer que las empresas que las ofrecen cumplan con los mismos estándares que exigimos al sector público. Este artículo primero define el problema y demuestra que es significativo y generalizado, y luego aboga por el desarrollo de un marco normativo global para lo que constituye la no dominación con respecto a las tecnologías digitales. Dicho marco debe incluir una idea matizada de poder político y responsabilidad que pueda responder no solo a la legalidad del comportamiento empresarial, sino a su legitimidad.

https://link.springer.com/article/10.1007/s13347-020-00441-4

Algoritmos: cómo pueden reducir la competencia y dañar a los consumidores

El documento identifica los daños potenciales para la competencia y los consumidores derivados del uso de algoritmos, centrándose en aquellos que la Autoridad de Competencia y Mercados (CMA) u otras autoridades nacionales de competencia o de consumo pueden estar en mejores condiciones para abordar.

Comunicado de prensa: CMA levanta la tapa sobre el impacto de los algoritmos
Estos incluyen daños directos a los consumidores, como la personalización de precios y otros aspectos de la arquitectura de elección en línea. También incluyen daños a la competencia, como el uso de algoritmos para excluir a los competidores (por ejemplo, para facilitar la autopreferencia) y la posibilidad de que los algoritmos faciliten la colusión.

El documento también resume las técnicas que podrían usarse para analizar los sistemas algorítmicos y el papel de los reguladores para abordar estos daños.

https://www.gov.uk/government/publications/algorithms-how-they-can-reduce-competition-and-harm-consumers

Estados Unidos me hace sentir como Sarah Connor

Últimamente he estado pensando en Sarah Connor y la maternidad. Ella es la camarera de Los Ángeles en la serie de películas «Terminator» quien, al enterarse de que su hijo aún no nacido debe sobrevivir en un futuro distópico y salvar a la humanidad de la destrucción por la inteligencia artificial, se dedica a prepararlo para el aterrador papel.

Como ciudadano nato de lo que yo creía que era una democracia en gran parte benigna y próspera, he preparado a mis tres hijos para nada de eso. Empiezo a preguntarme si debería reconsiderarlo.

En «Terminator», un viajero del futuro solo tarda unos minutos en convencer a Connor de que ella es la madre del salvador de la raza humana. Ella dice, ¿está bien qué sigue? Por más crédulo que parezca, es la parte más creíble de la película para mí. Está lista para hacer cualquier cosa para proteger a su hijo. Ella continúa enseñándole cómo convertirse en un líder intrépido y luchar como el infierno por sus creencias.

En cierto sentido, Sarah tuvo suerte: sabía lo que se avecinaba. El mundo real es menos seguro, pero parece cada vez más siniestro. El año pasado trajo una pandemia global, escasez que amenazó la vida, acaparamiento desagradable, enfrentamientos violentos entre manifestantes y la policía, el espectáculo de un presidente de Estados Unidos que busca socavar la transferencia pacífica del poder y, más recientemente, una turba que invade el Capitolio. Incluso si la vacunación conquista el virus, el país parece lamentablemente no preparado para abordar los problemas que se estaban acumulando antes de que llegara. Estamos profundamente divididos por raza, ingresos, recursos y las realidades en las que la gente elige creer.

https://www.bloomberg.com/opinion/articles/2021-01-10/america-is-making-me-feel-like-sarah-connor