Se trata de BERT (Bidirectional Encoder Representations from Transformers), una red neuronal de código abierto de Google que entenderá de una manera más efectiva la forma en la que se expresan y comunican los usuarios, mencionó Google en su blog oficial.

“Con los últimos avances de nuestro equipo de investigadores en la ciencia de la comprensión del lenguaje, que ha sido posible gracias al aprendizaje automático, estamos mejorando significativamente la forma en que entendemos las consultas”, dijo en un comunicado Pandu Nayak, vicepresidente de Google Search.

Antes de esta función, el buscador no lograba entender algunos códigos de lenguaje y les daba respuestas erróneas a los usuarios; por ejemplo, si alguien buscaba “2019 viajar de Brasil a Estados Unidos”, el algoritmo no captaba la preposición “a” y le ofrecía resultados al usuario, como “publicaciones sobre viajar a Brasil desde Estados Unidos”, informó Gizmodo. 

BERT les permite a los usuarios formular preguntas al buscador como se las harían a otra persona, la red los anima a dejar de usar palabras clave para encontrar los resultados correctos, pues el sistema funciona de manera bidireccional y endiente que todas las palabras están interconectadas, afirmó el mismo medio.

Por el momento, el sistema solo está disponible en Estados Unidos, pero la compañía aseguró que lo extenderá a otros idiomas en el futuro, comenzando por el hindi y el portugués, de acuerdo con el mismo portal.