En un estudio hecho en la Universidad de Stanford, que será publicado dentro de poco en el ‘Journal of Personality and Social Psychology’ (‘Revista de Personalidad y Psicología Social’) y cuyas principales conclusiones fueron adelantadas por The Economist, se establece que la visión mecánica puede inferir la orientación sexual de las personas analizando sus rostros.

Los investigadores, Michal Kosinski y Yilun Wang, dicen que el software hace esto al recoger las sutiles diferencias en la estructura facial. Incluso, sugieren que, con los conjuntos de datos adecuados, sistemas de IA similares podrían ser entrenados para detectar otros rasgos íntimos, como las opiniones políticas. “El hecho de que los humanos no puedan ver los signos en las caras no significa que las máquinas no puedan hacerlo”.

El algoritmo desarrollado por Kosinski y Wang puede distinguir si un hombre es gay en hasta el 91 % de los casos y si una mujer es lesbiana en el 83 %, un porcentaje sensiblemente superior al del ojo humano, que acierta el 61% y el 54% de las veces respectivamente, según la investigación.

El artículo continúa abajo

The Economist revela que el programa se basó en 130.741 imágenes de 36.630 hombres y 170.360 imágenes de 38.593 mujeres, descargadas de un popular sitio estadounidense de citas. “La tecnología básica de detección facial se utilizó para seleccionar todas las imágenes que mostraban una única cara de tamaño y claridad suficientes para someter a análisis. Esto dejó 35,326 cuadros de 14,776 personas, con gay y derecho, varón y hembra, todos representados uniformemente”, agrega la publicación inglesa.

Kosinski y Wang, de acuerdo con The Economist, explican el rendimiento de su modelo en el hecho de que a medida que los fetos se desarrollan en el útero, se exponen a varios niveles de hormonas, en particular la testosterona. “Estos son conocidos por desempeñar un papel en el desarrollo de las estructuras faciales, y pueden participar de manera similar en la determinación de la sexualidad”, registra el medio.

También se encontró que el programa presta más atención a la nariz, los ojos, las cejas, las mejillas, la línea del cabello y la barbilla para determinar la sexualidad masculina. En el caso de las mujeres, la nariz, las esquinas de la boca, el cabello y el escote.

Pero los investigadores advierten que el estudio tiene limitaciones, porque es probable que las imágenes de un sitio de citas sean particularmente reveladoras de la orientación sexual. “La tasa de precisión del 91% sólo se aplica cuando uno de los dos hombres cuyas imágenes se muestran es conocido por ser gay. Fuera del laboratorio, la tasa de exactitud sería mucho menor”, continúa The Economist.

Por su parte, El País, de España, que califica el algoritmo como “inconsistente y peligroso ‘radar gay’” por lo controvertida que resulta “la invasión en la intimidad que supone la posibilidad de detectar con una máquina la orientación sexual” recoge las críticas de asociaciones LGTBI+ sobre las limitaciones que presenta. “La muestra con la que se ha realizado la investigación, un total de 35.326 imágenes faciales, son todas de personas blancas y han sido tomadas de una web de citas”.

También se pregunta: “imaginen qué ocurriría en los países donde la homosexualidad está prohibida si el uso de esta especie de radar gay se extendiera”, y cita a Jim Halloran, director digital de La Alianza Gay y Lésbica contra la difamación (GLAAD): “La tecnología no puede identificar la orientación sexual de alguien. Lo que su tecnología puede reconocer es un patrón que encontró en un pequeño subconjunto de personas blancas homosexuales que parecen similares en una página web de citas”.

“El estudio no incluye en su muestra a personas negras o asiáticas, por ejemplo, pero tampoco a transgénero, bisexuales o personas mayores”, destaca el diario español. “No es sorprendente que personas homosexuales que eligen inscribirse en una web de citas publiquen fotos de sí mismos con expresiones y estilos similares”, acotó Halloran.

Pero El País recoge otra observación de las asociaciones defensoras de los derechos LGTBI+: “Más allá de que fuera verdad que el algoritmo pueda identificar hasta el 91%, un 9% de heterosexuales serían identificados de forma errónea”.

Esas asociaciones, incluso, consideran peligrosa la investigación y la tachan de “imprudente”. “En un momento en que las minorías están siendo atacadas, estos resultados imprudentes pueden servir como arma para perjudicar tanto a heterosexuales que son imprecisamente expulsados como a gais y lesbianas que se encuentran en situación de peligro”.

Aunque, según los autores del estudio, uno de sus objetivos es precisamente “alertar” contra los peligros de la inteligencia artificial y su invasión en la vida íntima de las personas.