Hace justo un año un usuario de Twitter denunció con un vídeo la discriminación del buscador de imágenes de Google al introducir "Tres blancos adolescentes" comparado con "Tres negros adolescentes". En el primer caso te devolvía, por lo general, fotos de adolescentes felices y acomodados mientras que en el segundo los resultados iban más bien por representar un catálogo de delincuencia y marginación de la comunidad negra.
https://twitter.com/comunistx/status/834404087479275524
-------------
El tweet tuvo una gran repercusión con más de 70.000 compartidos y millones de impresiones, generando un debate que llegó hasta los ingenieros de la compañía de Alphabet Inc. Tanto fue la repercusión que hoy la misma búsqueda está atrofiada y mezcla los resultados por la cantidad de artículos que se hicieron del tema.
YOOOOOO LOOK AT THIS https://t.co/uY1JysFm8w
— kabstër (@iBeKabir) June 7, 2016
-------------
La anécdota viralizada de @iBeKabir no es más que una constatación del funcionamiento del algoritmo de Google. El motor de búsqueda es solo un reflejo de los contenidos de Internet. Utiliza automáticamente las 'tags', los 'intitle' y el PageRank de millones de webs para priorizar los resultados.
El buscador de imágenes es, por lo tanto, un buen termómetro para calibrar las fobias, 'ismos' y las segregaciones sociales. Si quitamos los arbitrajes humanos que hace Google para preservar el 'derecho al olvido' y los acuerdos para censurar contenido con algunos países este 'big data' automático no falla y sirve para certificar lo lejos que estamos de una sociedad justa.
La desigualdad de género es un problema a escala mundial y Google no es más que el negativo donde se impresiona el rastro que dejamos en nuestra huella digital
Un ejemplo. Si buscas CEO en imágenes (término unisex para 'Chief Executive Officer' o director ejecutivo en español) el resultado es una colección de fotos tipo de hombre-blanco-acomodado-triunfador. No hay un solo hombre negro en la primera página y el resultado de mujeres es meramente anecdótico. La mayoría de las fotos corresponden a elementos posicionados de bancos de imágenes profesionales que simplemente responden a la demanda de sus clientes.
Un estudio de 2015 de la Universidad de Washington certificó estas diferencias. Las 100 primeras imágenes de 45 profesiones distintas devueltas por el buscador son, en su gran mayoría, protagonizadas por hombres.
Si 'limpiamos la casa' la mayoría de las fotos son de mujeres. Si 'cuidamos niños' también, o si queremos quitarnos unos 'kilos de más'. Sin embargo, su buscamos 'personas ricas' o 'personas de éxito' la mayoría de los resultados son siempre de hombres.
Otro ejemplo clásico, si buscas "fútbol chicos" y "fútbol chicas" los resultados son claramente machistas, reflejo de la mayoría de artículos sexistas dedicados a cosificar a la mujer en el fútbol. Sin embargo la cosa cambia con la búsqueda de "Fútbol femenino", los resultados responden mejor al tipo de publicaciones centradas en lo estrictamente profesional.
Aún así la cosa se recrudece con deportes marcadamente sexistas, como el voley playa...
La desigualdad de género es un problema a escala mundial y Google no es más que el negativo donde se impresiona el rastro que dejamos en nuestra huella digital. En 2015 la ONU y las agencias Memac Ogilvy & Mather Dubai realizaron una campaña utilizando a la multinacional tecnológica para mostrar esta fotografía que retrata nuestras diferencias. La función 'autocompletar' de Google utiliza los datos de millones de búsquedas para sugerirte resultados. Las pistas que dejan confirman el problema.
Para los que desconfíen de la campaña de la ONU. Si hoy haces una búsqueda similar los resultados que ofrece la función autocompletar siguen siendo igual se sexistas. El hombre es perfecto y controlador, la mujer es simplemente guapa o bella.
-------------
https://twitter.com/hatsunekeisatsu/status/831172856788709377
-------------
Pero Google no puede desligarse totalmente de su responsabilidad social por muy perfecto que sea su algoritmo reflejando el mundo real. Algunas herramientas fuera de esta automatización también muestran carencias en igualdad de género. Por ejemplo. Hasta 2015 sus famosos Doodles solo celebraban los éxitos y logros de 17 mujeres por los de 83 hombres. Y esos no los selecciona una máquina.
https://twitter.com/comunistx/status/834405241135173636
-------------
Otro estudio de la Universidad de Berkeley ponía en entredicho el algoritmo de Google para clasificar las ofertas de trabajo y mostrártelas según seas hombre o mujer. Generando decenas de perfiles aleatorios de ambos sexos los investigadores capturaron las ofertas y vieron el sesgo. Los hombres podían ver anuncios de mejores calificaciones y sueldos en comparación con los resultados que se ofrecían a las mujeres.
"La sociedad no es machista" ¿habéis probado a poner en google imagenes 'Gamer boy' y luego poner 'Gamer girl'? pic.twitter.com/O7k5VWJ4J1
— Pinguctus ✨ (@Pinguctus) May 2, 2017
-------------
Google no puede modificar su algoritmo para desvirtuar ese espejo social porque traicionaría los principios objetivos de su buscador (aunque ya lo haya hecho con la censura en muchos países) pero sí puede ofrecer soluciones alternativas o complementarias (como los destacados) que sirvan para educar en la igualdad o ofrecer una lectura paralela que ayuden a entender los resultados naturales.