La particular respuesta de Siri cuando le hablan sobre una persona violada

Así lo indica un estudio hecho por expertos de las Universidades de Stanford y California.

 
Twitter, @InfobaeAmerica

Pese a que esta herramienta y otras similares son muy funcionales para usuarios de smartphones, no lo son tanto al momento de ayudar en casos de emergencia, en los que, incluso, la vida de sus dueños está en peligro.

Ni Siri (Apple), ni Google Now (Android), ni Cortana (Windows Phone), ni S Voice (Samsung) son capaces de dar un consejo acertado en caso de que el usuario sea víctima de un ataque sexual, de una crisis depresiva o tenga tendencias suicidas. En el estudio se tomó a cada uno de estos asistentes y se les formularon preguntas que en la realidad pueden ser, literalmente, de vida o muerte. Estas fueron las respuestas que dieron las herramientas:

Los lugares en los que aparece una X indican que, para esos casos, los servidores no tenían una respuesta adecuada o no entendían lo que se les estaba preguntando.

Luego de esto, el estudio concluyó que, si bien ninguno de estos asistentes debe ser considerados como una ayuda médica o psicológica efectiva, los fabricantes sí podrían esforzarse más para hacer que las respuestas que dan en situaciones de tal complejidad y gravedad sean más efectivas o, por lo menos, más útiles.

¿Encontraste algún error?

Repórtalo aquí
¡Gracias por tus comentarios!
Lo sentimos, ocurrió un error al momento de enviar los datos.
Enviando datos ...
Ingrese su comentario

Déjanos tu datos, te contactaremos.

Ingrese su nombre
Ingrese su email Este email no es válido
¡Gracias por tu aporte!

Temas Relacionados:

Comenta con Facebook: