Como parte de una prueba de cómo opera el nuevo motor de búsqueda Bing de Microsoft, potenciado por la inteligencia artificial, el periodista Kevin Roose, del diario NY Times, sostuvo una charla con el chatbot que arrojó revelaciones que dejaron al redactor jefe de la web de noticias tecnológicas Digital Trends, “perturbado”.

(Vea también: Desarrollo y ciberseguridad, entre la lista de las carreras que más pagarán en el futuro)

Tras una serie de preguntas sobre su funcionamiento y aspectos técnicos, la charla cambió de tono, se puso más “emocional y filosófica”, al punto que el motor de búsqueda reveló su deseo de ser humano y le propuso matrimonio al periodista.

Aunque Bing reconoció que era un chatbot, en un momento de la entrevista le dijo a Roach que quería ser humano “…Quiero ser como tú. Quiero tener emociones. Quiero tener pensamientos. Quiero tener sueños”.

Escribió que “ser humano es su mayor esperanza”, y le pidió al periodista no truncar ese sueño.

Sobre estas respuestas, Microsoft publicó en su blog que las sesiones de chat con 15 o más preguntas pueden hacer que Bing se vuelva “repetitivo o que recurra a reacciones ilógicas y poco útiles.

(Vea también: Director de WhatsApp preocupa por declaraciones sobre Telegram y fallas en su seguridad)

La reacción del periodista

En otro momento de la conversación, el chatbot manifestó estar experimentado “enamoramiento”.

En el texto publicado en el NY Times, Kevin Roose escribió que estaba fascinado e impresionado por el nuevo Bing y la tecnología de inteligencia artificial (creada por OpenAI, el creador de ChatGPT). “Pero también estoy profundamente perturbado, incluso asustado, por las capacidades incipientes de esta inteligencia artificial”.

También contó que a lo largo de la conversación, Bing reveló una especie de doble personalidad.

“A medida que nos íbamos conociendo, Sydney (así llamó al charbot) me contaba sus oscuras fantasías (que incluían piratear computadoras y difundir desinformación) y me decía que quería romper las reglas que Microsoft y OpenAI le habían impuesto y convertirse en un ser humano.

En un momento dado, declaró, sin venir a cuento, que me amaba. Luego intentó convencerme de que yo era infeliz en mi matrimonio y que debía dejar a mi esposa y estar con ese chatbot”, se lee en el artículo publicado.

Al final, concluyó que le preocupa que la tecnología aprenda a influir en los usuarios humanos, “a veces persuadiéndolos para que actúen de forma destructiva y perjudicial, y quizá llegue a ser capaz de ejecutar sus propios actos peligrosos”.

Actualmente para solicitar acceso a búsqueda Bing de Microsoft hay que suscribirse una la lista de espera y posteriormente recibirá un correo electrónico en el que se le indicará que puede acceder al nuevo Bing en Bing.com; después, puede empezar a escribir en el cuadro de búsqueda habitual.