Safiya Noble: “La gente se ve mal representada porque los algoritmos exportan ideas hegemónicas”

La investigadora disertó en las “III Jornadas de Comunicación Estratégica” sobre los peligros que causa el mal uso de los motores de búsqueda por parte de las empresas tecnológicas.

“El racismo, el sexismo, la cosificación y la discriminación que producen los motores de búsqueda” fue el foco que tuvo la conferencia que ofreció Safiya Noble, especialista en sesgo tecnológico y discriminación algorítmica, en el quinto y último día de las III Jornadas de Comunicación Estratégica. Además, la docente investigadora repasó algunos de los hallazgos que publicó en su libro Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo (NYU Press, 2018). 

“Debemos pensar de manera distinta sobre los algoritmos, son empresas tecnológicas las que los manejan. Cosas que se daban sentadas en el pasado, ahora se están haciendo visibles por el daño que pueden hacer. Investigar a Google fue muy difícil y también hacer entender lo peligrosa que puede ser esa tecnología”, advirtió. 

En la misma línea, detalló en qué puntos se centró su investigación. “Me enfoqué en las personas negras, asiáticas y de comunidades vulnerables. Si miramos más globalmente, los daños se producen en todas las partes del mundo, van más allá de Estados Unidos. La tecnología está discriminando, es más que un software y cada vez hay más evidencia de esto”, señaló y agregó: “Escribí sobre Google y el daño que pueden hacer sobre las personas vulnerables y la ganancia que pueden obtener empresas de su tipo”.

Ejemplo sobre el término “black girls” (mujeres negras) para ilustrar el sexismo y la cosificación de esa población en las búsquedas.

Además, ejemplificó su postura con la búsqueda del término “black girls” (mujeres negras) en el sitio de Google. Al respecto, sostuvo: “Lo que uno obtenía buscando ‘black girls’ en 2011 era pornografia, hipersexualidad, objetivización sexual. Lo mismo ocurre con ‘chicas latinas’: resultados hipersexualizados y objetivizados. ¿Por qué ni siquiera se puede agregar la palabra ‘sexo’ y estas mujeres aparecen instantáneamente relacionadas a la pornografia?”.

“Google Search no es confiable para satisfacer las necesidades del público para conseguir conocimientos. Está apuntando a sus clientes para que sus anuncios sean más visibles”, manifestó.

Luego de poner de manifiesto sus críticas a los algoritmos y a los motores de búsqueda, alentó a “intervenir a favor de estas comunidades vulneradas”. “Google exporta ideas hegemónicas al mundo, la gente se ve mal representada. Ellos dicen que no se puede intervenir en los motores de búsqueda, pero Alemania, por ejemplo, tiene politicas para evitar discursos de odio, antisemitismo, entre otros. Entonces se necesita moderadores de contenido”, fundamentó y criticó la influencia que tienen las empresas tecnológicas sobre las campañas políticas y sus candidatos.

“Tenemos más datos y tecnología que nunca, y más desigualdades e injusticias sociales, políticas y económicas que las acompañan.”

Por otra parte, hizo hincapié en la necesidad de pensar cómo achicar la brecha que se genera por la exclusión que incitan estas lógicas. “La equidad no se resuelve con un clic, tenemos que ir más profundo para ver, por ejemplo, la redistribución de las riquezas. La brecha de desigualdad se acrecienta, entonces cómo podemos tener mayor acceso e igualdad social”, argumentó. 

“No se trata solamente de analizar a la búsqueda como una práctica efímera, sino en cómo operan estas empresas sobre eso. Hay que pensar en forma más crítica, pensar en las lógicas de las tecnologías. El sector tecnológico es el que más favorecido ha salido en esta crisis por el Covid-19, necesitamos sus ganancias e aquellos impuestos que no pagan para invertir en el sector público”, concluyó.

Noble es profesora asociada en la Universidad de California. Cofundadora y codirectora del Centro de UCLA para la investigación crítica de Internet. Es miembro de la junta de Cyber ​​Civil Rights Initiative, que atiende a las personas vulnerables al acoso en línea.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Puedes usar estas etiquetas y atributos HTML:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>