El plan secreto de Apple para hablar sin voz

Tecnología
Tiempo de lectura: 4 min
por: 

Red de pódcast LocutorCo, especializada en tecnología, ciencia y entretenimiento. Con los siguientes títulos pódcast: - El Siglo 21 es Hoy - Flash Diario - Lecturas Misteriosas - EntreVistas

Visitar sitio

Apple compra Q.ai por hasta dos mil millones y apuesta por IA silenciosa para Siri y AirPods Apple acaba de hacer una de las compras más grandes de su historia reciente y casi nadie lo vio venir. La empresa de la...

Apple compra Q.ai por hasta dos mil millones y apuesta por IA silenciosa para Siri y AirPods

Por Félix Riaño @LocutorCo

Apple acaba de hacer una de las compras más grandes de su historia reciente y casi nadie lo vio venir. La empresa de la manzana adquirió la startup israelí Q.ai, una compañía que llevaba más de tres años trabajando en silencio, sin mostrar productos y sin hacer ruido mediático. El valor estimado del acuerdo ronda entre mil quinientos y dos mil millones de dólares, una cifra que la convierte en la segunda adquisición más costosa de Apple, solo por detrás de Beats en dos mil catorce.Q.ai se dedica a algo muy particular: enseñar a las máquinas a entendernos sin que tengamos que hablar en voz alta. Su tecnología combina aprendizaje automático, análisis de audio y seguimiento de movimientos faciales. Apple no ha explicado aún dónde va a usar estas ideas, pero las pistas apuntan a Siri, a los AirPods y a los visores de realidad mixta.

Una compra tecnológica que abre posibilidades… y también dudas razonables.

Q.ai nació en dos mil veintidós, fundada por Aviad Maizels, Yonatan Wexler y el doctor Avi Barliya. Desde el inicio decidieron trabajar en modo sigiloso. Nada de presentaciones públicas, nada de demos abiertas. La idea era desarrollar una tecnología capaz de interpretar la comunicación humana más allá de la voz tradicional.Los inversionistas que apostaron temprano por Q.ai sabían que no era un proyecto sencillo. Fondos como GV, Kleiner Perkins y Spark acompañaron el proceso con paciencia y con dinero suficiente para investigar a fondo. Para ellos, el valor no estaba en lanzar rápido un producto, sino en resolver un problema profundo: cómo lograr que los dispositivos entiendan a las personas en entornos reales, con ruido, con distracciones y con limitaciones sociales.Apple observó ese trabajo durante años. Ahora decide integrar al equipo completo y llevar esa investigación directamente a sus productos, desde audífonos hasta sistemas de inteligencia artificial personal.

Hablar con asistentes de voz sigue siendo incómodo para muchas personas. En una casa compartida, en una oficina, en el transporte público o en una cafetería, usar la voz en alto genera incomodidad. Por eso, aunque la inteligencia artificial avanza rápido, la mayoría de usuarios termina escribiendo en pantallas pequeñas.Q.ai se enfocó justo en ese bloqueo cotidiano. Según patentes analizadas por medios tecnológicos, su sistema usa sensores ópticos para detectar micro movimientos en labios, mejillas y mandíbula. Esos movimientos se traducen en palabras o comandos, incluso cuando el sonido es mínimo o casi inexistente.El desafío técnico es enorme. La cara humana se mueve de forma distinta en cada persona, cambia con la luz, con la barba, con gafas o con el cansancio. Lograr precisión en ese contexto exige modelos complejos, entrenamiento largo y mucha prueba y error. A eso se sumó un contexto social duro: cerca del treinta por ciento del equipo fue llamado al servicio militar en Israel durante dos mil veintitrés, lo que interrumpió rutinas y obligó a trabajar bajo presión constante.

Apple decide comprar Q.ai justo cuando su estrategia de inteligencia artificial necesita un impulso. Siri ha tenido retrasos y comparaciones incómodas frente a otros asistentes. Integrar una tecnología que permita hablar en susurros, o incluso sin sonido, cambia las reglas del juego.Los analistas creen que esta tecnología puede llegar primero a los AirPods, combinando micrófonos, sensores y algoritmos para entender al usuario en medio del ruido. También se menciona su posible uso en el Vision Pro, donde la interacción silenciosa resulta casi obligatoria.Aviad Maizels ya conoce este camino. En dos mil trece vendió PrimeSense a Apple, una compra que terminó dando vida al Face ID. Hoy repite la…

Temas Relacionados:

Te puede interesar

Sigue leyendo