En un video de TikTok quedó registrada la respuesta de Alexa a una mujer que preguntó cómo detener la risa de los niños. “Según un colaborador de Alexa Answers, si es conveniente, golpéalo”, responde la asistente de voz de Amazon.

(Vea también: Paso a paso para publicar ubicaciones falsas en su dispositivo Android)

El mismo caso ocurrió en el Reino Unido con Adam Chamberlain, un hombre de 45 años que también hizo la misma pregunta al dispositivo, teniendo exactamente la misma respuesta por parte de Alexa. Según el medio Indy100, la respuesta fue removida en septiembre, apenas Amazon se percató del patrón. El video grabado por la mujer, el último registrado en Amazon, fue realizado el 20 de septiembre de 2022.

La conversación despierta incógnitas en torno a la importancia del cuidado en los sistemas de moderación de contenidos, así como los posibles riesgos que podrían surgir a partir de su uso inadecuado. Adrián Duque, Ingeniero en Sistemas con Maestría en Inteligencia Artificial, explica la forma en la que funciona el sistema de acumulación de datos de Alexa Answers, así como sus posibles riesgos:

“Alexa está programado para responder a cualquier petición que se le haga. Peticiones como poner música o encender la luz. Alexa Answers surge con la idea de resolver un problema muy grande que era la incapacidad de resolver ciertas preguntas para las cuales no podía inferir la respuesta”, comenta. “La manera en la que Alexa Answers funciona es que hay un pool de preguntas al que tú te puedes registrar en línea si tienes una Alexa. Son preguntas del tipo: ¿quién descubrió América? ¿De qué está hecho el oro? Alexa surge con la idea de que usuarios ayuden a responder esa pregunta y ayuda a los procesos de aprendizaje de la máquina”.

“La manera en la que funciona es que toma todas las respuestas que vienen y las usa como posible respuesta para las personas que le hagan esa pregunta en el futuro. Basándose en la retroalimentación que recibe, va aprendiendo a usar o no la respuesta. La respuesta del uso de la violencia pudo surgir por varios motivos. El primero es que alguien respondió eso en la pregunta de Alexa Answers en línea y le pareció que fue una buena opción. La segunda es que no solo haya sido una persona, sino que varias personas respondieron con un patrón de violencia, lo cual es perjudicial porque lo que está pasando ahí es que en el proceso de aprendizaje de la máquina se está sesgando hacia esa respuesta”.

Lee También
@corieile Alex hates kids 😂😂😂😪 #alexa #kids #punchtheminthethroat ♬ original sound – Corinna Nino O’Brien


En este orden de ideas, el mecanismo de Alexa Answers que, en un principio, surgió para convertir a la máquina en una herramienta más inteligente, terminaría por acumular respuestas incorrectas debido a los usuarios, lo cual podría acarrear en varios riesgos. “El problema más grande es la fiscalización de Alexa Answers. Hay un debate público sobre cómo se puede llevar ese control, ¿es posible que Alexa Answers sea un mecanismo para difundir noticias falsas? Hay mecanismos paleativos que se están implementando en Alexa Answers, como por ejempl, si tú das una respuesta verificada por varios usuarios como una respuesta correcta, comienzas a ganar puntos, entonces, esto es un incentivo para los usuarios para compartir buenas respuestas”.

A partir de esta problemática, surge un debate más amplio sobre los posibles sesgos que los usuarios pueden implementar en las máquinas y en la inteligencia artificial, llegando incluso a poder reproducir y amplificar discursos de odio: “Muchos de los datos de los que partimos, parten sesgados o afectando a un grupo particular. Por ejemplo, entrenar a una máquina de inteligencia artificial con datos de fallos judiciales de los años 50, 60 y 70 probablemente dictamine una tendencia en contra de una población discriminada. De la misma manera, es probable que esa capacidad que tienen las personas para sesgar las máquinas hacia ciertos comportamientos”, comenta Adrián Duque.

(Lea también: Instagram pedirá foto del documento de identidad para comprobar edad de usuarios)

“La mejor manera de evitar estos problemas es tener dos filtros: 1) un filtro de reconocimiento automático, que sea capaz de detectar mensajes de odio, por ejemplo, que en las respuestas que digiten los usuarios, poner algún tipo de protección al encontrar palabras como “golpe”, “violencia” o “ahorcar”, censurar esa respuesta y no permitir que pase como un posible mecanismo de aprendizaje. O 2) tener un ente fiscalizador humano que pueda fiscalizar el conocimiento que está recibiendo Alexa”, comenta el experto.