Polémico consejo de ‘Alexa’ para que los niños dejen de reír levantó ampolla

Tecnología
Tiempo de lectura: 5 min
por: 

El Espectador es el periódico más antiguo del país, fundado el 22 de marzo de 1887 y, bajo la dirección de Fidel Cano, es considerado uno de los periódicos más serios y profesionales por su independencia, credibilidad y objetividad.

Visitar sitio

El asistente de voz de Amazon, después de este inconveniente, que ha molestado a muchos habría obligado a la compañía a reconocer que hay fallos.

En un video de TikTok quedó registrada la respuesta de Alexa a una mujer que preguntó cómo detener la risa de los niños. “Según un colaborador de Alexa Answers, si es conveniente, golpéalo”, responde la asistente de voz de Amazon.

(Vea también: Paso a paso para publicar ubicaciones falsas en su dispositivo Android)

El mismo caso ocurrió en el Reino Unido con Adam Chamberlain, un hombre de 45 años que también hizo la misma pregunta al dispositivo, teniendo exactamente la misma respuesta por parte de Alexa. Según el medio Indy100, la respuesta fue removida en septiembre, apenas Amazon se percató del patrón. El video grabado por la mujer, el último registrado en Amazon, fue realizado el 20 de septiembre de 2022.

La conversación despierta incógnitas en torno a la importancia del cuidado en los sistemas de moderación de contenidos, así como los posibles riesgos que podrían surgir a partir de su uso inadecuado. Adrián Duque, Ingeniero en Sistemas con Maestría en Inteligencia Artificial, explica la forma en la que funciona el sistema de acumulación de datos de Alexa Answers, así como sus posibles riesgos:

“Alexa está programado para responder a cualquier petición que se le haga. Peticiones como poner música o encender la luz. Alexa Answers surge con la idea de resolver un problema muy grande que era la incapacidad de resolver ciertas preguntas para las cuales no podía inferir la respuesta”, comenta. “La manera en la que Alexa Answers funciona es que hay un pool de preguntas al que tú te puedes registrar en línea si tienes una Alexa. Son preguntas del tipo: ¿quién descubrió América? ¿De qué está hecho el oro? Alexa surge con la idea de que usuarios ayuden a responder esa pregunta y ayuda a los procesos de aprendizaje de la máquina”.

“La manera en la que funciona es que toma todas las respuestas que vienen y las usa como posible respuesta para las personas que le hagan esa pregunta en el futuro. Basándose en la retroalimentación que recibe, va aprendiendo a usar o no la respuesta. La respuesta del uso de la violencia pudo surgir por varios motivos. El primero es que alguien respondió eso en la pregunta de Alexa Answers en línea y le pareció que fue una buena opción. La segunda es que no solo haya sido una persona, sino que varias personas respondieron con un patrón de violencia, lo cual es perjudicial porque lo que está pasando ahí es que en el proceso de aprendizaje de la máquina se está sesgando hacia esa respuesta”.

@corieile Alex hates kids 😂😂😂😪 #alexa #kids #punchtheminthethroat ♬ original sound – Corinna Nino O’Brien


En este orden de ideas, el mecanismo de Alexa Answers que, en un principio, surgió para convertir a la máquina en una herramienta más inteligente, terminaría por acumular respuestas incorrectas debido a los usuarios, lo cual podría acarrear en varios riesgos. “El problema más grande es la fiscalización de Alexa Answers. Hay un debate público sobre cómo se puede llevar ese control, ¿es posible que Alexa Answers sea un mecanismo para difundir noticias falsas? Hay mecanismos paleativos que se están implementando en Alexa Answers, como por ejempl, si tú das una respuesta verificada por varios usuarios como una respuesta correcta, comienzas a ganar puntos, entonces, esto es un incentivo para los usuarios para compartir buenas respuestas”.

A partir de esta problemática, surge un debate más amplio sobre los posibles sesgos que los usuarios pueden implementar en las máquinas y en la inteligencia artificial, llegando incluso a poder reproducir y amplificar discursos de odio: “Muchos de los datos de los que partimos, parten sesgados o afectando a un grupo particular. Por ejemplo, entrenar a una máquina de inteligencia artificial con datos de fallos judiciales de los años 50, 60 y 70 probablemente dictamine una tendencia en contra de una población discriminada. De la misma manera, es probable que esa capacidad que tienen las personas para sesgar las máquinas hacia ciertos comportamientos”, comenta Adrián Duque.

(Lea también: Instagram pedirá foto del documento de identidad para comprobar edad de usuarios)

“La mejor manera de evitar estos problemas es tener dos filtros: 1) un filtro de reconocimiento automático, que sea capaz de detectar mensajes de odio, por ejemplo, que en las respuestas que digiten los usuarios, poner algún tipo de protección al encontrar palabras como “golpe”, “violencia” o “ahorcar”, censurar esa respuesta y no permitir que pase como un posible mecanismo de aprendizaje. O 2) tener un ente fiscalizador humano que pueda fiscalizar el conocimiento que está recibiendo Alexa”, comenta el experto.

Temas Relacionados:

Te puede interesar

Nación

Sale versión sobre primas que bajaron de un bus para matarlas: tendrían oscuro trabajo

Entretenimiento

La razón por la que Alejandra Giraldo está afuera de Noticias Caracol: "No estás bien"

Nación

Nuevo rastro detrás de médica desaparecida en Cartagena: ¿borró mensajes de su computador?

Nación

Aparece video del accidente de camión que rodó 180 metros; familia llora al conductor

Mundo

Joven de 15 años asesinó a un compañero dentro de su colegio: dejó carta aterradora

Bogotá

Grave situación de orden público en la Nacional, luego de las marchas; UNDMO ya respondió

Entretenimiento

Daniela Ospina, afligida por la difícil decisión que tomó con su hija Salomé Rodríguez

Entretenimiento

Tumbaron al actor Andrés Sandoval y perdió $ 190 millones; reveló el nombre de la empresa

Sigue leyendo