Diseña un sitio como este con WordPress.com
Comenzar

Gran promesa pero potencial de peligro

 Pero su promesa revolucionaria de hacer cosas como mejorar la eficiencia, reducir los costos y acelerar la investigación y el desarrollo se ha atenuado últimamente con la preocupación de que estos sistemas complejos y opacos puedan causar más daño social que beneficio económico. Prácticamente sin supervisión del gobierno de EE. UU., Las empresas privadas utilizan software de inteligencia artificial para tomar decisiones sobre salud y medicina, empleo, solvencia e incluso justicia penal sin tener que responder por cómo se aseguran de que los programas no estén codificados, consciente o inconscientemente, con sesgos estructurales.

https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


Anuncio publicitario

LA INTELIGENCIA ARTIFICIAL Y EL PROBLEMA DE LA AUTONOMÍA

 Se dice de manera rutinaria que los sistemas de inteligencia artificial (IA) operan de manera autónoma, exponiendo brechas en los regímenes regulatorios que asumen la centralidad de los actores humanos. Sin embargo, sorprendentemente se presta poca atención a lo que se entiende por «autonomía» y su relación con esas brechas. Los vehículos sin conductor y los sistemas de armas autónomos son los ejemplos más estudiados, pero surgen problemas relacionados en los algoritmos que asignan recursos o determinan la elegibilidad para programas en el sector público o privado. Este artículo desarrolla una novedosa tipología de autonomía que distingue tres desafíos regulatorios discretos que plantean los sistemas de IA: las dificultades prácticas de gestionar el riesgo asociado con las nuevas tecnologías, la moralidad de que ciertas funciones sean asumidas por las máquinas y la brecha de legitimidad cuando las autoridades públicas delegan sus poderes a los algoritmos.

https://ndlsjet.com/wp-content/uploads/2020/04/Artificial-Intelligence-and-the-Problem-of-Autonomy.pdf

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


El nuevo concepto de privacidad: la transformación estructural de la visibilidad

 El concepto de privacidad ha ido cobrando protagonismo en el debate público y académico según han ido aumentando las voces que proclaman su desaparición por los efectos de las tecnologías de la información. A diferencia de otros conceptos limítrofes —como intimidad vida privada—, este nuevo concepto de privacidad comprende un nuevo régimen de visibilidad que afecta a la configuración del espacio público digital (EPD). A través del estudio histórico de cómo se ha formado este nuevo concepto, expongo las cuatro dimensiones del contexto de experiencia que recoge: 1) la imposibilidad del secreto en el ciberespacio; 2) el desarrollo de una economía de la vigilancia que ha llevado a la hiperfragmentación del EPD y 3) a la transformación de la visibilidad de este ámbito público, y 4) el carácter esencialmente reactivo de este nuevo concepto de privacidad.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.


First Steps Towards an Ethics of Robots and Artificial Intelligence

 Este artículo ofrece una descripción general de las principales cuestiones éticas de primer orden planteadas por los robots y la inteligencia artificial (RAI) en cinco grandes rubros: funcionalidad, importancia inherente, derechos y responsabilidades, efectos secundarios y amenazas. La primera letra de cada rúbrica en conjunto genera convenientemente el acrónimo FIRST. Se presta especial atención a las rúbricas de funcionalidad y significado inherente dada la centralidad de la primera y la tendencia a descuidar la segunda en virtud de su carácter algo nebuloso y controvertido. Además de explorar algunos problemas ilustrativos que surgen bajo cada rúbrica, el artículo también enfatiza una serie de temas más generales. Estos incluyen: la multiplicidad de niveles interactivos en los que surgen preguntas éticas sobre los RAI, la necesidad de reconocer que los RAI potencialmente implican a toda la gama de valores humanos (en lugar de exclusiva o principalmente a un subconjunto fácilmente identificable de principios éticos o legales), y la necesidad de una reflexión ética prácticamente destacada sobre las IAR que se base en una valoración realista de sus capacidades existentes y previsibles.

https://www.jpe.ox.ac.uk/papers/first-steps-towards-an-ethics-of-robots-and-artificial-intelligence/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Aprendizaje automático interpretable: breve historia, estado de la técnica y desafíos

 Presentamos una breve historia del campo del aprendizaje automático interpretable (IML), brindamos una descripción general de los métodos de interpretación de vanguardia y discutimos los desafíos. La investigación en IML se ha disparado en los últimos años. Tan joven como es el campo, tiene más de 200 años de raíces en el modelado de regresión y el aprendizaje automático basado en reglas, a partir de la década de 1960. Recientemente, se han propuesto muchos métodos nuevos de IML, muchos de ellos independientes del modelo, pero también técnicas de interpretación específicas para el aprendizaje profundo y los conjuntos basados ​​en árboles. Los métodos de IML analizan directamente los componentes del modelo, estudian la sensibilidad a las perturbaciones de entrada o analizan aproximaciones sustitutas locales o globales del modelo de ML. El campo se acerca a un estado de preparación y estabilidad, con muchos métodos no solo propuestos en la investigación, sino también implementados en software de código abierto. Pero aún quedan muchos desafíos importantes para el IML, como el manejo de las características dependientes, la interpretación causal y la estimación de la incertidumbre, que deben resolverse para su aplicación exitosa a problemas científicos. Otro desafío es la falta de una definición rigurosa de interpretabilidad, que es aceptada por la comunidad. Para abordar los desafíos y avanzar en el campo, instamos a recordar nuestras raíces del modelado interpretable y basado en datos en estadísticas y ML (basado en reglas), pero también a considerar otras áreas como el análisis de sensibilidad, la inferencia causal y las ciencias sociales. .

https://arxiv.org/abs/2010.09337

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La innovación disruptiva y la incertidumbre moral

 Este artículo desarrolla una explicación filosófica de la ruptura moral. Según Robert Baker (2013), la disrupción moral es un proceso en el que las innovaciones tecnológicas socavan las normas morales establecidas sin conducir claramente a un nuevo conjunto de normas. Aquí analizo este proceso en términos de incertidumbre moral, formulando un relato filosófico con dos variantes. En la Cuenta de daños, tal incertidumbre es siempre dañina porque bloquea nuestro conocimiento de nuestras obligaciones morales y de los demás. En la Cuenta del Daño Calificado, no hay daño en los casos en que la incertidumbre moral está relacionada con la innovación que es «para lo mejor» en una perspectiva histórica, o donde la incertidumbre es la expresión de una virtud deliberativa. Los dos relatos se comparan aplicándolos al caso histórico de Baker sobre la introducción de tecnologías de ventilación mecánica y trasplante de órganos, así como al caso actual de prácticas de datos masivos en el dominio de la salud.

https://www.academia.edu/42765738/Disruptive_Innovation_and_Moral_Uncertainty?email_work_card=title

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Qué significa ser eticista de la IA

 A pesar de que existe un fuerte llamado a la tecnología responsable, el camino hacia la puesta en práctica de la ética aún no se ha entendido completamente. Para ayudar a guiar la implementación de la ética, hemos visto el surgimiento de un nuevo título profesional; el especialista en ética de la IA. Sin embargo, aún no está claro qué debe incluir el rol y el conjunto de habilidades de esta nueva profesión. El propósito de este artículo es ofrecer una definición preliminar de lo que significa ser un especialista en ética de la inteligencia artificial examinando primero el concepto de especialista en ética en el contexto de la inteligencia artificial, seguido de explorar qué responsabilidades se agregan al rol en la industria específicamente, y terminando en la característica fundamental que subyace a todo: la valentía.

https://link.springer.com/article/10.1007/s43681-020-00020-5

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

IA responsable y responsabilidad moral: una apreciación común

 La responsabilidad es una de las palabras de moda más extendidas en la ética de la inteligencia artificial (IA) y la robótica. Sin embargo, el término a menudo permanece sin fundamento cuando se emplea en estos importantes dominios tecnológicos. De hecho, nociones como «IA responsable» y «robótica responsable» pueden parecer atractivas, ya que parecen transmitir un sentido de bondad moral o aprobación ética, lo que incita a conexiones psicológicas con la autorregulación, la aceptación social o la corrección política. Para que la IA y la ética se unan de manera verdaderamente armoniosa, tendremos que trabajar para establecer una apreciación común. En este comentario, analizo tres variedades del término e invoco ideas de la literatura sobre ética analítica como un medio para ofrecer una comprensión sólida de la responsabilidad moral en la tecnología emergente. Si bien no deseo acusar a ninguna de las partes de un uso incorrecto, espero que juntos los investigadores en IA y ética puedan estar mejor posicionados para apreciar y desarrollar nociones de responsabilidad en los dominios tecnológicos.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Censura algorítmica por plataformas sociales: poder y resistencia

 La moderación eficaz del contenido por parte de las plataformas sociales es importante y difícil; Numerosos problemas surgen del volumen de información, la naturaleza culturalmente sensible y contextual de esa información y los matices de la comunicación humana. Al intentar escalar la moderación, las plataformas sociales adoptan cada vez más enfoques automatizados para suprimir las comunicaciones que consideran indeseables. Sin embargo, esto trae sus propias preocupaciones. Este artículo examina los efectos estructurales de la censura algorítmica por parte de las plataformas sociales para ayudar a desarrollar una comprensión más completa de los riesgos de tales enfoques para la moderación del contenido. Este análisis muestra que la censura algorítmica se distingue por dos razones: (1) por poner potencialmente al alcance todas las comunicaciones realizadas en las plataformas sociales y (2) por permitir que esas plataformas adopten un enfoque intervencionista más activo para moderar esas comunicaciones. En consecuencia, la censura algorítmica podría permitir a las plataformas sociales ejercer un grado de control sin precedentes sobre las comunicaciones públicas y privadas. Además, las prioridades comerciales se insertarían aún más en las comunicaciones diarias de miles de millones de personas. Debido al dominio de la web por algunas plataformas sociales, esto puede ser difícil o poco práctico de escapar para muchas personas, aunque existen oportunidades de resistencia.

https://link.springer.com/article/10.1007/s13347-020-00429-0

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

IA y Ética

 Dado que es de vital importancia que los sistemas autónomos, ya sean software o hardware, que interactúan con los seres humanos (y quizás también con otros seres sensibles) se comporten de manera ética, consideramos seis posibles enfoques para lograrlo. Argumentamos que los cinco primeros enfoques no son satisfactorios y defendemos el último enfoque, el enfoque que hemos adoptado. Implica descubrir características éticamente relevantes y los correspondientes deberes prima facie presentes en las diversas acciones posibles que tal sistema podría tomar en dominios particulares y descubrir principios de decisión para cuando haya un conflicto entre esos deberes. Además, mantenemos que hay una serie de beneficios adicionales al adoptar este enfoque que implican ser más claros sobre la ética humana, además de la ética a la que deben adherirse los sistemas autónomos, y la posibilidad de que pueda conducir a proporcionar inspiración para los humanos. comportarse de manera más ética.

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.