En el mundo se está implementando la AI para hacer selección laboral. Se desarrolla un algoritmo que permite a través de los metadatos escoger al mejor postor para una oferta laboral.

La Inteligencia Artificial ha llegado para mejorar la producción en las empresas y en las industrias de todo tipo. No obstante, la cosa no está resultando como todos desearían.

Las alarmas están prendidas, tanto Estados Unidos como Europa, donde empiezan a hacer una crítica profunda sobre la AI.

En Europa algunas ONG’s ya están trabajando profusamente sobre los posibles efectos adversos que pueden tener los algoritmos, que además tienen los sesgos de las personas que los crean.

AlgoRace por ejemplo viene trabajando con algoritmos y personas racializadas para empezar a disminuir el racismo que tienen algunos mecanismos de Inteligencia Artificial que les hace la vida mas pesada a algunas minorías o con algunas discapacidades.

(Le puede interesar: Hombre vs. máquina: así se preparó John McEnroe para enfrentar a inteligencia artificial)

AlgoRace es un equipo multidisciplinar de profesionales de la comunicación, formadores en pensamiento decolonial e investigadores sobre el racismo y la Inteligencia Artificial; esto, en Europa. Ahora también desde Estados Unidos el gobierno empieza a preocuparse por la discriminación que sufren a partir de la Inteligencia Artificial.

La fiscal general adjunta Kristen Clarke, de la División de Derechos Civiles del departamento, dijo hace poco:

“Hacemos sonar una alarma respecto a los peligros ligados al uso a ciegas de la Inteligencia Artificial y otras tecnologías que son cada vez más utilizadas por los empleadores. El uso de la IA está agravando la añeja discriminación a la que se enfrentan los solicitantes de empleo con discapacidad”.

Uno de los casos más preeminentes de los tiempos recientes que ha salido a la luz pública es el caso del Big Tech Amazon, que diseñó un algoritmo que le ayudara en un reciente gran caso de selección de personal. La AI debía decidir, basándose en macrodatos, si los empleados que serían contratados cumplían o no el perfil para el cual aplicaban. Los resultados de la escogencia del personal no fueron los mejores. No era lo que esperaban.

Este caso es quizá uno de los primeros casos de discriminación de género por parte de un algoritmo y claro en el canto de sirena de la Inteligencia Artificial. Y es que empezó a penalizar a los currículum vitae que incluyeran palabras en femenino –esto lo hizo basándose en lo que había aprendido–: ingeniera, médica, abogada, desarrolladora. Se prendieron las alarmas tanto del lado de la sociedad civil como del gobierno, pues la mayoría de los contratados fueron hombres.

Acá es prioridad que la sociedad civil y los gobiernos empiecen a crear políticas y normas claras alrededor la Inteligencia Artificial para que no se violen los derechos civiles ni mucho menos los derechos humanos de ciertas minorías y componentes de la sociedad que históricamente han sido discriminados.