Diseña un sitio como este con WordPress.com
Comenzar

The problem of innovation in technoscientific capitalism: data rentiership and the policy implications of turning personal digital data into a private asset

La rentabilidad de los datos personales como activo

https://www.tandfonline.com/doi/full/10.1080/01442872.2020.1748264

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Las Empresas Tecnológicas quieren ser Estados

Las Big Tech tienen una enorme influencia en todo y quieren pasar a tener influencia geopolítica. Este informe del Instituto Elcano aborda acertadamente la cuestión. Facebook, IBM, Google han hecho incursiones en grandes cumbres políticas, en el World Economic Forum y en la ONU.

Quien debe regular y proteger los derechos de los ciudadanos son los Estados, lo que probablemente no está alineado con los intereses de estas grandes compañías.

https://blog.realinstitutoelcano.org/empresas-tecnologicas-y-estados-policy-o-politica/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Anuncio publicitario

El Ayuntamiento de NY llama ‘delincuente’ al consorcio LinkNYC respaldado por Google

El consorcio iba a reemplazar las cabinas telefónicas, pero hay un problema muy poco técnico: dinero.

Además de dar WiFi gratis y llamadas domésticas gratis, recarga gratis USB, tabletas gratis conetadas a internety sesupone que se iba a financiar con publicidad en esas tabletas. El resultado es que el uso es menor del esperado y los ingresos. El Ayuntamiento no puede permitir la desigualdad entre los vecinos. El problema es que los postes se utilizaban para pornografía al aire libre. Además está el vandalismo. Y se ha cuestionado la información recogida de los usuarios.

https://www.politico.com/states/new-york/albany/story/2020/03/03/city-hall-calls-google-backed-linknyc-consortium-delinquent-1264966

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Amazon pone el ojo en el negocio de farmacia en UK

Amazon ha legado a un acuerdo para poder vender medicina. El acuerdo ha sido la cesión gratuita de los datos del NHS para comercializarlos. Esto ha levantado la oposición a la explotación comercial de los datos y la experiencia sanitaria británica. La entrada de Amazon supondría el cierre de muchas farmacias y pérdidas de empleos.

La situación se agrava porque el negocio de Amazon en UK es de 14.500 M$ y paga menos impuestos que las compañías de tamaño medio.

https://www.forbes.com/sites/douglasbell/2019/12/12/uk-backlash-as-amazon-eyes-up-24-billion-pharmacy-market-following-controversial-data-deal-with-british-government/#402523f044f7

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Justicia pregunta: ¿Son los Gigantes Tecnológicos demasiado poderosos?

El comité anti-trust de EEUU está considerandoel papel dominante de las grandes tecnológicas. La reunión incluyó la escuela jurídica de Stanford y muchas grandes compañísas, Google incluída. Los inversores no quieren invertir en tecnologías que desafíen a las grandes.

https://www.wired.com/story/doj-startup-investors-tech-giants-too-powerful/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

El peligro que supone la IA para la civilización

Se utiliza para cosas no esenciales La «inteligencia» de la IA supone un problema para la civilización. Se suele usar para cosas no esenciales, a veces egoístas. Incluso Google Maps, aunque útil, signigica que soy rastreado por mi teléfono al usarla.

La IA realmente no trabaja para el usuario. Siempre que se usa IA es a cambio de la privacidad. Que el teléfono aprenda cómo me comporto y se adelante me hace sentirme niño. Facebook etiqueta las fotos que subo sin que se lo haya pedido. ¿Me beneficia? Es poner muy bajo el listón del beneficio. El problema es el coste: un incremento en dependencia externa que básicamente nos infantiliza. la IA no está empoderando a nadie,excepto a los gobiernos y otras organizaciones que se benefician de rastrear los movimiento, aplicar las normas y tratar a las personas como meros datos.

Es interesante que cuando se automatizan cosas para objetivos no frívolos no solemos llamarlo IA. Por ejemplo los sistemas de pilotaje automático de las modernas naves Airbus son en esencia sistema ID que toman el control de los pilotos. Es una gran historia para los entusiastas de la IA, pero no se habla de ello porque no hay un mercado que se beneficie de ello. La gente no quiere oir hablar de que el MCAT está pilotado, quieren saber que el piloto controla la situación. Así que de pronto deja de ser IA, es solamente un montón de dispositivos electrónicos. Pero no hay una diferencia sustancial entre esos sistemas de aviónica y la IA de consumo, excepto que los efectos infantilizantes solo los experientan los pilotos.

¿El principal problema? No es la infantilización como tal, es el hecho de que transferimos asimétricamente poder a los propietarios de los sistemas, no a los usuarios. Los modernos sistemas de IA requieren masivas cantidades de datos. Quien los posea, también reclama la IA. Así, extrañamente, la visión Orwelliana se está convirtiendo en la historia moderna.

El problema no es que la legislación o los observadores sean suficientemente activos, el problema es que la tecnología actual sirve a los propietarios de los servidores y de big data y solo secundariamente a los usuarios. Además, la IA está dirifiendo la asimetría del poder. Hay una gran cuestión: cómo podemos disfrutar de una tecnología poderosa sin ser la herramienta de otro.

Si dispongo de una app con IA incorporada construida por mí o por un amigo a a la que nadie tiene acceso para controlarla, no será muy útil o potente. Si descargo la que ha diseñado Microsoft o Google, probablemente funcione bien, pero ellos tienen la sartén por el mango. La raón es que la app usa mis datos y una enorme cantidad de los comportamientos analizados de otras personas. Me beneficio de otros pero pierdo el control de mis datos.

No tenemos aún modelos no ligados a big data. Así que el control lo tienen los gigantes tecnológicos.

Quizás si se eliminara el adjetivo «inteligente» y se llamase simplemente algoritmos estadísticos aplicados a nuestros datos, los aspectos más tontos se eliminaría.

Los modelos actuales requieren presupuestos crecientes de forma insostenible. No obstante, el modelo actual puede lleguar a ser culturalmente corrosivo.

https://mindmatters.ai/2020/02/the-danger-ai-poses-for-civilization/

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Mark Zuckerberg: Facebook debe aceptar cierta regulación estatal

Zuckerberg reconoce cierto papel de tercero mediador de Facebook en las publicaciones y que pueden influir en elecciones, pero también su incapacidad de supervisar los 10.000M de contenidos que se publican diariamente.

https://www.theguardian.com/technology/2020/feb/15/mark-zuckerberg-facebook-must-accept-some-state-regulation

por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Los Gigantes Tecnológicos tras el Lobby por el rconocimiento facial

Un analista de investigación de un grupo de expertos en tecnología e innovación de Washington dice que Portland debería probar la tecnología de reconocimiento facial en lugar de prohibirla. Pero, ¿por qué un investigador en DC se preocuparía tanto por si Portland prohíbe algo de tecnología? No hay que rascar mucho para descubrir que este columnista invitado tiene detrás algunos de los grandes pesos del reconocimiento facial, incluidos Amazon y Microsoft, que también son gigantes de la tecnología del Noroeste del Pacífico.

https://redtailmedia.org/2020/01/20/in-portland-debate-facial-recognition-giants-hide-behind-tech-lobby-think-tank/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

¿Derechos de los robots? Hablemos mejor de Bienestar Humano

El debate sobre los «derechos de los robots», y su pregunta relacionada con la «responsabilidad de los robots», invoca algunas de las posiciones más polarizadas en la ética de la inteligencia artificial.
Mientras que algunos abogan por otorgar derechos de robots a la par de los seres humanos, otros, en una clara oposición, argumentan que los robots son
no merece derechos pero son objetos que deberían ser nuestros esclavos.
Basado en fundamentos filosóficos post-cartesianos, argumentamos
no solo para negar los «derechos» de los robots, sino también para negar que los robots, como artefactos que emergen y median en el ser humano, son los tipos
de cosas a las que se les pueden otorgar derechos en primer lugar. Una vez que nosotros
vemos a los robots como mediadores del ser humano, podemos entender cómo
El debate sobre los «derechos de los robots» se centra en los problemas del primer mundo, en el
gasto de preocupaciones éticas urgentes, como sesgo de máquina, máquina
provocó la explotación laboral humana y la erosión de la privacidad, todo impactando a los individuos menos privilegiados de la sociedad. Concluimos que si
El ser humano es nuestro punto de partida y el bienestar humano es la principal preocupación, los impactos negativos que surgen de los sistemas maquínicos, así como la falta de responsabilidad por parte de las personas que diseñan, venden e implementan tales máquinas, sigue siendo la discusión ética más apremiante en la IA.

https://arxiv.org/abs/2001.05046v1

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)

Cómo las Big Tech evitan la regulación

No estoy de acuerdo con el autor en que «los investigadores de IA pasados ​​no hayan estado interesados ​​en el estudio de la ética»; Hay una gran literatura sobre esto, comenzando incluso en la década de 1950.  No es sorprendente que no se pueda confiar en que las grandes compañías (y las universidades financiadas por ellas) controlen ellos mismos. Siempre ha habido una investigación que financia dilemas éticos en IA: la mayoría de los fondos siempre provienen del Departamento de Defensa o de grandes empresas. Y, por supuesto, durante mucho tiempo ha habido una relación acogedora entre las grandes compañías tecnológicas y el Departamento de Defensa, incluso antes de Google, Apple, Amazon.

https://theintercept.com/2019/12/20/mit-ethical-ai-artificial-intelligence/

Adaptado por Aniceto Pérez y Madrid, Filósofo de las Tecnologías y Editor de Actualidad Deep Learning (@forodeeplearn)