Diseña un sitio como este con WordPress.com
Comenzar

Google dice a la UE que los usuarios son responsables de la discriminación

https://netzpolitik.org/2021/ai-ethics-google-tells-eu-that-users-bear-responsibility-for-discrimination/

Mientras la Unión Europea prepara nuevas leyes para regular la Inteligencia Artificial (IA), Google ha dicho a la Comisión de la UE que los usuarios deben «asumir la obligación de no discriminar» al utilizar aplicaciones de IA. En una reunión celebrada en marzo, los funcionarios de la Comisión preguntaron al gigante tecnológico qué responsabilidades distintas deberían tener los proveedores y los usuarios de la tecnología de IA. Los responsables del grupo de presión respondieron que son los usuarios los que deben estar «obligados a asegurarse de que entienden el sistema que utilizan y de que su uso es conforme».

Los defensores de los derechos humanos advierten que las aplicaciones de IA podrían perpetuar la discriminación social por razón de género o etnia. Recientemente, Google ha dicho públicamente que se ha abstenido de utilizar su tecnología para calificar el crédito de los consumidores y que, por el momento, no se dedicará a las aplicaciones de reconocimiento de emociones. Otras empresas tecnológicas también han expresado sus reservas sobre el sesgo algorítmico y las preocupaciones éticas en torno al uso de la IA.

En la reunión a puerta cerrada con la Comisión, Google ha expresado una opinión diferente. Los grupos de presión afirman que «no hay que exagerar los riesgos de la IA» y que los reguladores también deben tener en cuenta los «costes de oportunidad de no utilizar la IA». Advirtieron que una próxima propuesta de ley de la Comisión sobre la responsabilidad de la IA corre el riesgo de crear «desincentivos a la innovación», según las actas de la reunión publicadas en netzpolitik.org en virtud de la ley de libertad de información de la UE. Las observaciones se hacen eco de otras similares realizadas por Google en respuesta a una consulta pública de la Comisión.

Anuncio publicitario

Todo el mundo debería decidir cómo se utilizan sus datos digitales, no sólo las empresas tecnológicas

https://www.nature.com/articles/d41586-021-01812-3

Hace unas décadas, si un investigador quería saber cómo afectaba el mal tiempo a los desplazamientos al trabajo -los medios de transporte que utiliza la gente, las rutas que toma, las horas en que viaja- podría haber encuestado a cientos de personas y contado los coches, autobuses y bicicletas en los principales cruces.

Hoy en día es posible acceder a datos sobre los desplazamientos de millones de personas, tomados de rastreadores de localización en teléfonos o vehículos, a veces en tiempo real. Estos datos pueden combinarse con los análisis de las vacunas COVID-19 para investigar los efectos de los viajeros que regresan a la oficina. Y los datos meteorológicos pueden incorporarse para determinar si ahora hay más gente que trabaja desde casa cuando llueve mucho que hace unos años.

En teoría. La realidad suele estar muy lejos de esta visión de color de rosa.

La mayoría de los datos de los que disponen -o que buscan- los científicos sociales computacionales hoy en día se generan para responder a preguntas que no tienen nada que ver con su investigación. Los datos llevan la marca de su propósito original, ya sea la publicidad dirigida o las primas de seguros personalizadas. Estos datos pueden reutilizarse con cautela para responder a otras preguntas -los rastreadores de fitness portátiles podrían servir de base para los estudios sobre la obesidad, por ejemplo-, pero suelen quedar lagunas cruciales. En consecuencia, los científicos suelen recurrir a soluciones provisionales para sacar provecho de lo que pueden obtener1.

Los activistas de la privacidad están ganando peleas con los gigantes tecnológicos. ¿Por qué la victoria se siente vacía?

https://www.theguardian.com/commentisfree/2021/may/15/privacy-activists-fight-big-tech

Para los activistas de la privacidad, 2021 trae una gran victoria tras otra. Primero, Alphabet, la empresa matriz de Google, anunció en marzo que dejaría de rastrear a los usuarios individuales mientras se desplazan de un sitio a otro. Esta decisión fue parte de la campaña más amplia de Alphabet para eliminar gradualmente el uso de cookies de terceros, una tecnología antigua pero controvertida, a la que se culpa cada vez más por la cultura laxa actual de intercambio de datos.

Debería estar preocupado por la cantidad de información que comparte WhatsApp con Facebook

Lee mas

En lugar de rastrear usuarios individuales a través de cookies, Alphabet planea usar el aprendizaje automático para agrupar a los usuarios en cohortes según las similitudes de comportamiento. Los anuncios estarán dirigidos a estas cohortes, no a individuos. Alphabet aún necesitará algunos datos para ubicar al usuario en la cohorte adecuada, pero los anunciantes no necesitarán tocar el navegador del usuario.

Ahora llega el segundo capítulo de este reposicionamiento más amplio de la industria. A principios de este mes, Apple presentó una importante actualización de su sistema operativo, que agiliza la forma en que los desarrolladores de aplicaciones externas como Facebook rastrean a los usuarios de Apple. Ahora, esos usuarios deben aceptar explícitamente que se recopilen sus datos. Si bien Facebook inicialmente se opuso a la medida, desde entonces ha moderado esa opinión, incluso prometiendo desarrollar tecnologías publicitarias que «mejoren la privacidad» que dependan menos de los datos sobre los usuarios.

Sin embargo, me pregunto si estas sorprendentes victorias del movimiento por la privacidad pueden, al final, resultar pírricas, al menos para la agenda democrática más amplia. En lugar de tener en cuenta el poder político más amplio de la industria de la tecnología, los críticos de la tecnología más abiertos se han centrado tradicionalmente en hacer que la industria de la tecnología rinda cuentas por numerosas violaciones de las leyes de privacidad y protección de datos existentes.

Esa estrategia suponía que esas transgresiones legales continuarían a perpetuidad. Ahora que Alphabet, y pronto, quizás, Facebook, se apresuran a aprovechar el aprendizaje automático para crear anuncios personalizados que también preservan la privacidad, uno comienza a preguntarse si poner tantos huevos críticos en la canasta de privacidad proverbial fue una decisión acertada. Aterrorizados por la omnipresencia y la eternidad del “capitalismo de vigilancia”, ¿hemos facilitado demasiado que las empresas de tecnología estén a la altura de nuestras expectativas? ¿Y hemos desperdiciado una década de activismo que debería haberse centrado en desarrollar explicaciones alternativas de por qué deberíamos temerle a la gran tecnología?

La sombría realidad de los trabajos en robótica e inteligencia artificial

https://alanwinfield.blogspot.com/2021/05/the-grim-reality-of-jobs-in-robotics.html

La realidad es que la IA, de hecho, ya está generando una gran cantidad de puestos de trabajo. Esa es la buena noticia. La mala noticia es que son en su mayoría, para decirlo sin rodeos, trabajos de mierda.

Hay varias categorías de estos trabajos.

En el extremo benigno del espectro está el trabajo de anotar imágenes, es decir, mirar imágenes e identificar características y luego etiquetarlas. Este es el etiquetado de IA. Este trabajo es simple e increíblemente aburrido, pero importante porque genera conjuntos de datos de entrenamiento para sistemas de aprendizaje automático. Esos sistemas podrían ser IA para vehículos autónomos y las imágenes identifican bicicletas, semáforos, etc. Los trabajos son de baja calificación y bajo salario y una gran industria internacional ha crecido para permitir que las empresas de alta tecnología subcontraten este trabajo a lo que ha sido llamados talleres clandestinos de cuello blanco en China o países en desarrollo.

Una versión más hábil de este tipo de trabajo son los traductores que deben «ayudar» a los sistemas de traducción de lenguaje natural que se atascan en una frase o palabra en particular.

Y hay otra categoría de estos trabajos que son positivamente peligrosos: los moderadores de contenido. Estos son nuevamente subcontratados por empresas como Facebook, a contratistas que emplean a personas para filtrar contenido abusivo, violento o ilegal. Esto puede significar ver videoclips y tomar una decisión sobre si el clip es aceptable o no (y aparentemente las reglas son complejas), una y otra vez, todo el día. No es sorprendente que los moderadores de contenido sufran un trauma psicológico terrible y, a menudo, abandonen el trabajo después de uno o dos años. Facebook nos dice públicamente que este es un trabajo importante, pero a los moderadores de contenido se les paga una fracción de lo que ganan los empleados que trabajan en el campus de la empresa. Así que no es tan importante.

Ver piedras: la pandemia revela el preocupante alcance de Palantir en Europa

https://www.theguardian.com/world/2021/apr/02/seeing-stones-pandemic-reveals-palantirs-troubling-reach-in-europe

El 24 de marzo de 2020 será recordado por algunos por la noticia de que el Príncipe Carlos dio positivo por Covid y estaba aislado en Escocia. En Atenas fue memorable como el día en que el tráfico se quedó en silencio. A las veinticuatro horas de un duro encierro, los griegos se estaban aclimatando a una nueva realidad en la que tenían que enviar un SMS al gobierno para poder salir de casa. Además de millones de mensajes de texto, el gobierno griego enfrentó dilemas extraordinarios. La economía más vulnerable de la Unión Europea, su población más anciana junto con Italia, y uno de sus sistemas de salud más débiles se enfrentaron a la primera ola de una pandemia que abrumó a los países más ricos con menos pensionistas y una mayor atención sanitaria. La carnicería en Italia se extendió por todo el Adriático.

Un griego que sí entró en la oficina ese día fue Kyriakos Pierrakakis, el ministro de transformación digital, cuya firma estaba tintada en azul en un acuerdo con la empresa de tecnología estadounidense Palantir. El acuerdo, que no se revelaría al público durante otros nueve meses, le dio a una de las empresas de tecnología más controvertidas del mundo acceso a grandes cantidades de datos personales mientras ofrecía su software para ayudar a Grecia a capear la tormenta Covid. El acuerdo de costo cero no se registró en el sistema de contratación pública, ni el gobierno griego llevó a cabo una evaluación del impacto de los datos, la verificación obligatoria para ver si un acuerdo podría violar las leyes de privacidad.

Las preguntas que surgen en la Grecia pandémica se hacen eco de las de toda Europa durante Covid y muestran que Palantir se extiende a sectores que van desde la salud a la policía, la aviación al comercio e incluso al mundo académico. Una investigación conjunta de meses de duración realizada por The Guardian, Lighthouse Reports y Der Spiegel utilizó leyes de libertad de información, correspondencia oficial, fuentes confidenciales e informes en varios países para reconstruir las actividades europeas de una de las empresas más secretas del mundo. Los hallazgos plantean serias dudas sobre la forma en que las agencias públicas trabajan con Palantir y si su software puede funcionar dentro de los límites de las leyes europeas en las áreas sensibles donde se está utilizando, o funcionar de la manera que promete la compañía.

Basta de hablar de ética de la IA. Es hora de hablar de poder.

https://www.technologyreview.com/2021/04/23/1023549/kate-crawford-atlas-of-ai-review/

A principios del siglo XX, un caballo alemán tomó Europa por asalto. El inteligente Hans, como se le conocía, aparentemente podía realizar todo tipo de trucos antes limitados a los humanos. Podía sumar y restar números, decir la hora y leer un calendario, incluso deletrear palabras y oraciones, todo marcando la respuesta con un casco. «A» fue un toque; «B» era dos; 2 + 3 eran cinco. Fue una sensación internacional, y muchos creían que era una prueba de que a los animales se les podía enseñar a razonar tan bien como a los humanos.

El problema era que Hans Clever realmente no estaba haciendo ninguna de estas cosas. Como descubrieron más tarde los investigadores, el caballo había aprendido a dar la respuesta correcta al observar cambios en la postura, la respiración y las expresiones faciales de sus interrogadores. Si el interrogador se quedaba demasiado lejos, Hans perdería sus habilidades. Su inteligencia fue solo una ilusión.

Esta historia se utiliza como advertencia para los investigadores de IA al evaluar las capacidades de sus algoritmos. Un sistema no siempre es tan inteligente como parece. Tenga cuidado de medirlo correctamente.

CORTESÍA DE KATE CRAWFORD

Pero en su nuevo libro, Atlas of AI, la destacada académica en inteligencia artificial Kate Crawford le da la vuelta a esta moraleja. El problema, escribe, estaba en la forma en que la gente definía los logros de Hans: «Hans ya estaba realizando notables hazañas de comunicación entre especies, actuación pública y considerable paciencia, pero no se reconocieron como inteligencia».

Así comienza la exploración de Crawford sobre la historia de la inteligencia artificial y su impacto en nuestro mundo físico. Cada capítulo busca ampliar nuestra comprensión de la tecnología al revelar cuán estrechamente la hemos visto y definido.

Crawford hace esto al llevarnos en un viaje global, desde las minas donde se extraen los elementos de tierras raras utilizados en la fabricación de computadoras hasta los centros logísticos de Amazon donde los cuerpos humanos se han mecanizado en la búsqueda incesante de crecimiento y ganancias de la empresa. En el capítulo uno, relata cómo conducía una camioneta desde el corazón de Silicon Valley hasta una pequeña comunidad minera en Clayton Valley, Nevada. Allí investiga las prácticas ambientales destructivas necesarias para obtener el litio que alimenta las computadoras del mundo. Es una ilustración contundente de lo cerca que están estos dos lugares en el espacio físico y de lo mucho que se encuentran en cuanto a riqueza.

Las empresas que controlan nuestras identidades secretas

Las empresas pueden recopilar sus datos personales de muchas fuentes diferentes y convertirlos en una «identidad secreta». Esto es cuando las empresas usan información sobre usted para asumir sus rasgos de personalidad y predecir su comportamiento, y vender este perfil a otros. Pero, ¿quiénes son las empresas detrás de esta práctica?
Las tecnologías y los servicios nos ofrecen mucho y pueden mejorar enormemente nuestra vida diaria. Pero muchas de las empresas que los proporcionan, especialmente las que los ofrecen de forma gratuita, recopilan datos sobre usted. Pueden ser datos que comparte consciente y voluntariamente para disfrutar de los beneficios del servicio (nombre, edad, dirección de correo electrónico …) o datos que quizás no se dé cuenta de que está compartiendo, como su ubicación aproximada a través de su dirección IP o su identificador de red social o a través de aplicaciones que acceden a sus contactos. A veces, las empresas recopilan información muy sensible de los sitios web que ha visitado y con los que ha interactuado, por ejemplo, sitios web sobre salud mental que revelan su estado mental o la enfermedad diagnosticada. Para complicar más las cosas, las empresas que reciben estos datos no siempre son las que prestan el servicio, como es el caso de los rastreadores de terceros en los sitios web.
Si bien algunos de estos datos y su recopilación pueden parecer inofensivos para algunos, lo que sucede detrás de escena es una fuente real de preocupación, ya que la recopilación de datos es solo el primer paso de un proceso largo y opaco. Las empresas de tecnología publicitaria combinan esta información y crean una imagen supuesta de usted, similar a una identidad secreta. De hecho, su información personal puede ser recopilada, cotejada y procesada para perfilarlo por empresas de las que nunca ha oído hablar. Con los datos que recopilan sobre usted, estas empresas pueden inferir aún más información sobre sus intereses, hábitos, metas y temores, con una precisión variable.
Estos perfiles revelan partes de ti mismo que incluso tus amigos más íntimos podrían no conocer. ¿Escéptico? Mediante la presentación de solicitudes de acceso a los sujetos de datos (DSAR), PI obtuvo algunos de sus propios perfiles y los resultados fueron aterradores. Los datos que se recibieron fueron el equivalente a todo nuestro historial de navegación y contenían características detalladas tanto inferidas de este historial de navegación como obtenidas de otras compañías de rastreo.
Reunidos a partir de datos incompletos y utilizando algoritmos de marketing, estos datos forman una imagen asombrosa de ti mismo, una que quizás no hayas revelado voluntariamente, una sombra digital sobre la que tienes muy poco control práctico.
¿Por qué debería importarle? ¿Realmente usan estos datos para algo? Puede averiguarlo leyendo esta investigación.

Amazon usa una aplicación llamada Mentor para rastrear y disciplinar a los conductores de entrega

La semana pasada, Amazon provocó preocupaciones sobre la privacidad cuando confirmó que está implementando cámaras habilitadas para inteligencia artificial en camionetas utilizadas por algunos de sus socios de entrega contratados. Pero la compañía ha estado usando durante años software para monitorear y rastrear el comportamiento de los conductores de reparto en la carretera.

Amazon requiere que los conductores de entrega contratados descarguen y ejecuten continuamente una aplicación para teléfonos inteligentes, llamada «Mentor», que monitorea su comportamiento de conducción mientras están en el trabajo. La aplicación, que Amazon considera una herramienta para mejorar la seguridad del conductor, genera una puntuación cada día que mide el rendimiento de conducción de los empleados.

El programa de socios de servicios de entrega (DSP), lanzado en 2018, está compuesto por empresas de entrega contratadas que manejan una parte creciente de las entregas de última milla del gigante minorista en línea. En solo unos pocos años, el programa ha crecido hasta incluir más de 1300 empresas de entrega en cinco países, lo que amenaza con cambiar una industria que tradicionalmente ha estado dominada por socios de envío como UPS y FedEx.

Al igual que las cámaras equipadas con inteligencia artificial que se implementan en las empresas de entrega contratadas, Mentor se enmarca como una «aplicación digital de seguridad para el conductor» para ayudar a los empleados a evitar accidentes y otros hábitos de conducción inseguros mientras se dirigen a su destino. Pero varios conductores de reparto que hablaron con CNBC describieron la aplicación como invasiva y expresaron su preocupación de que los errores dentro de la aplicación pueden, en ocasiones, llevar a una acción disciplinaria injusta por parte de su gerente.

La portavoz de Amazon, Deborah Bass, dijo a CNBC en un comunicado: “La seguridad es la máxima prioridad de Amazon. Ya sea que se trate de telemetría de vanguardia y tecnología de seguridad avanzada en camionetas de última milla, programas de capacitación en seguridad para conductores o mejoras continuas dentro de nuestra tecnología de mapas y rutas, hemos invertido decenas de millones de dólares en mecanismos de seguridad en toda nuestra red. y comunicar regularmente las mejores prácticas de seguridad a los conductores «.

Pero Bass no respondió a ninguna de las acusaciones específicas que los conductores de DSP hicieron a CNBC sobre la aplicación Mentor que se detalla en esta historia, así como a las preguntas sobre cómo la aplicación usa ciertos comportamientos para calificar a los conductores.

Los conductores de Amazon deben iniciar sesión en la aplicación Mentor al comienzo de su turno todos los días.
Los conductores de Amazon deben iniciar sesión en la aplicación Mentor al comienzo de su turno todos los días.
Los puntajes generados por la aplicación Mentor se utilizan de más maneras que simplemente evaluar el desempeño laboral de una persona, dicen los conductores. Amazon también analiza las puntuaciones, en parte, al clasificar el estado de un socio de entrega, según los conductores, que pidieron permanecer en el anonimato por temor a represalias de Amazon.

El sistema de clasificación de los DSP varía de «Pobre» a «Bueno», a «Fantástico» y al nivel superior, denominado «Fantástico +». Un excedente de puntajes bajos de Mentor entre la fuerza laboral de un socio de entrega puede reducir la clasificación del DSP, lo que potencialmente puede poner en peligro su acceso a los beneficios proporcionados por Amazon, como las rutas de entrega óptimas, dijeron los conductores.

La aplicación también cuenta con un panel para que los conductores «vean cómo se comparan con el resto de su equipo». El sistema basado en puntajes de Mentor genera preocupaciones de que la aplicación intensifica la presión del trabajo, enfrentando a los conductores y a los DSP en competencia entre sí en un grado poco saludable.

Los DSP ya están bajo una intensa presión debido a la facilidad con la que Amazon puede cortar contratos con socios de entrega.

“El conocimiento de que estás bajo este nivel de vigilancia constante, que incluso si estás haciendo un buen trabajo en tu trabajo, una aplicación o algoritmo podría tomar una determinación que impacte tu vida o tu capacidad para poner comida en la mesa para sus hijos son, creo, profundamente injustos ”, dijo Evan Greer, subdirector del grupo de derechos digitales Fight for the Future. «Es increíblemente distópico».

Cómo trabaja Mentor
La aplicación Mentor fue creada por eDriving, una empresa de tecnología con sede en Nueva Jersey que desarrolla herramientas de seguridad vial para las industrias automotriz y logística. Los representantes de eDriving no respondieron a las solicitudes de comentarios.

Los conductores de Amazon deben iniciar sesión en la aplicación Mentor al comienzo de su turno todos los días. La aplicación calcula un puntaje para cada conductor, denominado «puntaje FICO», basado en su desempeño de manejo, y no debe confundirse con la calificación crediticia del mismo nombre.

La aplicación Mentor calcula una puntuación para cada conductor, denominada «puntuación FICO», en función de su rendimiento de conducción.
La aplicación Mentor calcula una puntuación para cada conductor, denominada «puntuación FICO», en función de su rendimiento de conducción.
La aplicación rastrea y mide los comportamientos de conducción, como frenar bruscamente, acelerar, hacer llamadas a teléfonos celulares o enviar mensajes de texto, según una guía Mentor para conductores DSP. La aplicación también rastrea el uso del cinturón de seguridad y la conducción en reversa, pero esos comportamientos no se tienen en cuenta en la puntuación FICO del conductor.

Mentor tiene un sistema escalonado para calificar, con un puntaje máximo de 800 a 850 considerado como «Excelente», mientras que un puntaje de 100 a 499 se considera el nivel más bajo, o la aplicación lo etiqueta como «Riesgo». No está claro cuántos puntos tiene cada infracción

https://www.cnbc.com/2021/02/12/amazon-mentor-app-tracks-and-disciplines-delivery-drivers.html

El A.I. La industria está explotando a los trabajadores subcontratados en todo el mundo, a veces por solo $ 8 al día

La inteligencia artificial moderna se basa en algoritmos que procesan millones de ejemplos o imágenes o texto. Una imagen de un pájaro en un A.I. El conjunto de datos se etiquetaría manualmente como «pájaro» para que el algoritmo asocie aspectos de esa imagen con la categoría «pájaro».
El proceso de etiquetar estos datos, a mano, escalado a millones, lleva mucho tiempo y es tremendamente monótono.
Gran parte de este trabajo se realiza fuera de Estados Unidos y otros países occidentales y explota a trabajadores de todo el mundo, según un nuevo artículo de Princeton, Cornell, la Universidad de Montreal y el Instituto Nacional de Ciencias Estadísticas.
Las empresas de etiquetado de datos como Sama (antes Samasource), Mighty AI y Scale AI utilizan mano de obra de África subsahariana y el sudeste asiático, pagando a los empleados tan solo $ 8 por día. Mientras tanto, estas empresas obtienen decenas de millones de dólares en ingresos al año.
Tomemos como ejemplo a Amazon Mechanical Turk, una plataforma de trabajo en línea donde cualquier persona en el mundo puede iniciar sesión y realizar tareas simples por unos pocos centavos cada una. Hasta 2019, Mechanical Turk requería una cuenta bancaria de EE. UU. Para recibir el pago, lo que significa que cualquier persona que trabaje para la plataforma sin acceso a la banca de EE. UU. Ni siquiera recibirá el pago en moneda legal. En su lugar, fueron compensados ​​con tarjetas de regalo de Amazon.
Uno de los conjuntos de datos más impactantes en la historia de la inteligencia artificial, ImageNet, se basó en los trabajadores de Mechanical Turk a quienes se les pagaba $ 2 por hora, según el periódico.
Además, los datos etiquetados han sido seleccionados por desarrolladores y programadores en los Estados Unidos u otros países occidentales, lo que significa que a menudo excluyen el contexto cultural global.
“Las imágenes de los novios se clasifican con menor precisión cuando provienen de Etiopía y Pakistán, en comparación con las imágenes de los novios de los Estados Unidos”, dice el documento. «Muchos de estos trabajadores están contribuyendo a los sistemas de inteligencia artificial que probablemente estén predispuestos en contra de las poblaciones subrepresentadas en los lugares en los que están desplegados, y es posible que no beneficien directamente a sus comunidades locales».
Una posible solución para esto, escriben los investigadores, es simplemente integrar estos etiquetadores de datos en el A.I. proceso de desarrollo, en lugar de mantenerlos como trabajadores que ganan centavos por imagen etiquetada. A los trabajadores se les pagaría de manera equitativa y su conocimiento y experiencia ayudarían a abordar la disparidad en el proceso de recopilación de datos, mejorando la precisión del producto en general.

https://onezero.medium.com/the-a-i-industry-is-exploiting-gig-workers-around-the-world-sometimes-for-just-8-a-day-288dcce9c047

Google ha permitido que los anunciantes excluyan a personas no binarias de ver anuncios de empleo

El sistema de publicidad de Google permitía a los empleadores o propietarios discriminar a las personas transgénero y no binarias, encontró The Markup.

Las empresas que intentan publicar anuncios en YouTube o en cualquier otro lugar de la Web podrían indicarle a Google que no muestre esos anuncios a personas de «género desconocido», es decir, personas que no se hayan identificado en Google como «hombre» o «mujer». Después de ser alertado sobre esto por The Markup, Google se comprometió a tomar medidas enérgicas contra la práctica.

«Implementaremos una actualización de nuestra política y su aplicación en las próximas semanas para restringir a los anunciantes de segmentar o excluir a los usuarios en función de la categoría de ‘género desconocido'», dijo Elijah Lawal, portavoz de Google.

Las políticas de Google prohíben que los anuncios se orienten o excluyan a hombres o mujeres de trabajos, viviendas o productos financieros para cumplir con las leyes federales contra la discriminación. Pero hasta que The Markup alertó a Google, la compañía les dio a los anunciantes la opción de evitar que sus anuncios se mostraran a personas de «género desconocido», lo que permitía de manera efectiva que los empleadores y propietarios discriminaran de manera inadvertida o intencional a las personas que se identifican como no binarias, transgénero o cualquier otra cosa. que no sea hombre o mujer.

El Markup encontró dos anuncios de trabajo de este tipo en YouTube, que es propiedad de Google, uno para trabajos en FedEx y el otro para Dewey Pest Control, una cadena con sede en California. En ambos casos, las explicaciones de orientación de anuncios de Google, recopiladas por Ad Observer de la Universidad de Nueva York, indicaron que el empleador había orientado el anuncio en función del género, pero que los datos no especificaban a qué género se dirigía. En esos casos, dijo Lawal, el anunciante había optado por excluir a las personas de género desconocido para que no vieran los anuncios. Tras una revisión adicional, dijo Lawal, la compañía «identificó aproximadamente a 100 anunciantes de entre muchos miles» que habían hecho lo mismo con los anuncios de vivienda, crédito o empleo.

https://themarkup.org/google-the-giant/2021/02/11/google-has-been-allowing-advertisers-to-exclude-nonbinary-people-from-seeing-job-ads