Diseña un sitio como este con WordPress.com
Comenzar

Ethics, Society and Technology Hub integra la ética en la enseñanza y la investigación

Ética junto con el estudio de ciencias. Stanford 

Ética en el aula

Reich ayudó a lanzar una clase llamada CS 182: Computación, ética y políticas públicas, co-impartida por Jeremy Weinstein, profesor de ciencias políticas, y Mehran Sahami, profesor de ciencias de la computación, que explora la intersección de tecnología, ética y política.

«Es la única clase que conozco donde los estudiantes tienen que completar asignaciones técnicas, documentos de políticas y documentos de filosofía», dijo Reich. Ahora está explorando clases similares sobre temas como bioingeniería y ciencias climáticas. “Queremos llevar esta idea más allá de la informática”, dijo.

https://news.stanford.edu/2020/09/17/ethics-society-technology-hub-embeds-ethics-teaching-research/

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Anuncio publicitario

Los Físicos deben comprometerse con la Ética de la IA ¡ya!

Explica cómo la investigación en Física se basa cada vez más en ML y DL y que los físicos no tienen formación en Ética de la IA, el impacto ético de las tecnologías.

Los efectos nocivos de la IA se han producido, en parte, porque la tasa de innovación ha superado con creces el desarrollo de la supervisión legislativa y porque las empresas de tecnología se han mostrado reacias (o se han negado) a autorregularse. Sin embargo, el cambio puede estar llegando. Los activistas e investigadores están pidiendo cada vez más a los gobiernos que limiten o prohíban ciertas tecnologías, muchos países están desarrollando estándares para el despliegue de IA, y las compañías de tecnología grandes y pequeñas están creando o haciendo crecer sus equipos de ética y equidad. Desde que comencé a asistir a las conferencias de IA en 2016, he visto crecer la cantidad de talleres, documentos y conversaciones sobre ética en la IA actual. Este año, la reunión de Sistemas de Procesamiento de Información Neural (NeurIPS), una de las conferencias de investigación de IA más grandes del mundo, requerirá que todas las presentaciones incluyan una declaración de impacto que discuta «aspectos éticos y futuras consecuencias sociales» y reconozca posibles conflictos de intereses.
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn). 

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

La inteligencia artificial está experimentando dolores de crecimiento

Mover la IA de casos de uso restringidos a implementaciones más amplias es «trabajo duro», dice Chui, «no solo porque los problemas tecnológicos son difíciles sino también porque la gestión del cambio es realmente difícil. Hay una razón por la cual esto no sucede más rápido «.

Parte del desafío es encontrar requisitos comerciales que puedan satisfacerse mediante el uso de inteligencia artificial, recordando el viejo adagio de una solución en busca de un problema. Muchas de las tecnologías emergentes en torno a la IA son fascinantes, pero aún no está claro cómo las empresas pueden capitalizar estas tecnologías. «Por ejemplo, el aprendizaje por refuerzo es terriblemente bueno para poder entrenar máquinas para jugar todo tipo de juegos mejor, pero no es tan obvio cuánto valor puede crear en el mundo», dice Chui.
El informe del MIT Sloan señala que la IA requerirá un mayor enfoque en la gestión de riesgos y la ética. La encuesta «muestra una amplia conciencia de los riesgos inherentes al uso de IA, pero pocos profesionales han tomado medidas para crear políticas y procesos para gestionar los riesgos, incluidos los riesgos éticos, legales, reputacionales y financieros».
Adaptado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial  y Editor de Actualidad Deep Learning (@forodeeplearn)

Curso sobre robots en la sociedad

Este curso trata de la integración de los robots en la sociedad y los peligros éticos que suscita,

https://www.edx.org/course/mind-of-the-universe-robots-in-society-blessing-or?utm_campaign=social-sharing-course-page&utm_medium=social&utm_source=twitter

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

2019-09 Andrew Ng at Amazon re:MARS 2019

In eras of technological disruption, leadership matters.

 Andrew Ng speaks about the progress of AI, how to accelerate AI adoption, and what’s around the corner for AI at Amazon re:MARS 2019 in Las Vegas, California.

https://www.deeplearning.ai/blog/andrew-ng-at-amazon-remars-2019/?utm_campaign=BlogAndrewReMarsSeptember12019&utm_content=100648184&utm_medium=social&utm_source=linkedin&hss_channel=lcp-18246783

*****, AI  for Good, AI FATE (fairness accuracy transparency ethics), AI Forecast, AI Techology advance, AI Training, Business, Data, PersonOfInterest,