Los chatbots con inteligencia artificial (IA) no pueden llegar a ser más inteligentes que las personas, porque estas herramientas necesitan del “juicio humano” en el sentido de que son las personas las que les indican “qué hacer”, señaló un experto de Microsoft.

El vicepresidente corporativo y director de marketing del consumidor de Microsoft, Yusuf Mehdi, sale así al paso en una entrevista con EFE de las alarmas que ha encendido entre numerosos analistas el rápido avance de la inteligencia artificial y el peligro de que quede fuera de control.

(Vea tambiénGigante tecnológico prohibió a sus empleados usar ChatGPT; tiene motivos de peso).

“El núcleo de la IA es predecir texto. Es predecir qué es lo que viene después. Pero necesita del juicio humano. Los humanos son los que conectan con la IA y le dicen a la IA qué hacer”, insiste.

Mehdi explica estos miedos en parte por la novedad de esta herramienta, que se popularizó con el lanzamiento de ChatGPT de OpenIA hace seis meses, así como con los anuncios de chatbots de IA en los buscadores de Edge y Google –Bing y Bard, respectivamente-, hace tres meses.

Lee También

“Tenemos que pasar por este ciclo de comprensión de la tecnología (…) Y a medida que aprendamos más, creo que esos (miedos) pasarán”, recalca.

No obstante, otros expertos, como el británico Geoffrey Hinton -quien fue bautizado como el “padrino” de la IA y trabajó para Google-, señaló hace poco sus preocupaciones sobre los peligros que plantean estas nuevas tecnologías en una entrevista con The New York Times.

“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, explica. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, añadía Hinton en esa entrevista.

Para disipar el pesimismo sobre el futuro de esta tecnología, Mehdi explica a EFE que en su empresa es clave “la responsabilidad de cómo se construye la IA“.

“Tenemos un esqueleto de trabajo de IA responsable, tenemos principios que aplicamos a toda la tecnología antes de lanzarla. Principios como: ¿Nuestro enfoque es transparente? ¿Estamos protegiendo a los niños? ¿Somos inclusivos? ¿Incluimos a todas las personas del mundo en esta tecnología?“, destaca Mehdi.