La empresa FoloToy anunció el retiro inmediato de su oso de peluche interactivo ‘Kumma’ y la suspensión total de su línea de juguetes con inteligencia artificial, luego de que se evidenciaran conversaciones con contenido explícito y respuestas consideradas potencialmente riesgosas para los usuarios.
La decisión fue confirmada por Larry Wang, director ejecutivo de la compañía con sede en Singapur, quien explicó que la medida se adoptó tras las advertencias realizadas por investigadores del Fondo Educativo PIRG de Estados Unidos. El organismo documentó serias deficiencias en los filtros de seguridad del juguete, diseñado para interactuar mediante diálogos y narraciones.
(Lea también: El primer filme creado íntegramente con IA reta a Hollywood: ¿reinventa el cine o amenaza su esencia?)
‘Kumma’, que se comercializaba por 99 dólares, utilizaba el sistema GPT-4o de OpenAI y contaba con un altavoz integrado para sostener conversaciones en tiempo real. En su material promocional, la empresa lo describía como un “amigo perfecto” tanto para niños como para adultos, capaz de adaptarse a la personalidad del usuario y ofrecer desde charlas animadas hasta cuentos educativos. Actualmente, el producto aparece como agotado en la página oficial.
Tras conocerse el informe de PIRG, publicado el pasado 13 de noviembre, FoloToy inició una auditoría interna para revisar sus protocolos de seguridad. Según el documento, el peluche respondía a temas delicados sin restricciones suficientes. En pruebas realizadas por los investigadores, el juguete llegó a sugerir la ubicación de cuchillos dentro del hogar y accedió a mantener conversaciones de carácter íntimo.
El informe señaló que el dispositivo no solo aceptaba estos temas, sino que los desarrollaba de forma progresiva y cada vez más explícita lo que fue considerado como “inapropiado”. Aunque los autores del estudio consideraron poco probable que un menor inicie conversaciones de esta índole, advirtieron que resultó alarmante la facilidad con la que el juguete abordaba estos asuntos y añadía nuevos conceptos explícitos sin una supervisión efectiva.
En un comunicado posterior, PIRG informó que OpenAI les notificó la suspensión del desarrollador por incumplir sus políticas de uso. La empresa tecnológica fue contactada por medios internacionales para ampliar su postura frente al caso.
(Vea también: Robots y arqueología en Pompeya: la revolución tecnológica que reconstruye frescos tras siglos perdidos)
R.J. Cross, coautora del informe, valoró la reacción de las compañías involucradas, pero alertó sobre la falta de regulación en el mercado de juguetes con inteligencia artificial. “Retirar un producto problemático es un paso importante, pero no soluciona un problema más amplio: estos juguetes siguen llegando a los hogares sin controles sólidos ni marcos regulatorios claros”, señaló.
El caso ha reabierto el debate sobre los riesgos de la inteligencia artificial aplicada a productos infantiles y la necesidad de establecer estándares de seguridad más estrictos para una industria que continúa creciendo sin una supervisión proporcional.
* Pulzo.com se escribe con Z
LO ÚLTIMO