Saturday, September 20, 2025

Los nuevos AirPods traducen idiomas en tiempo actual. Es revolucionario

Esta semana vi a un viejo amigo y me puso al día sobre lo que había estado haciendo en el verano. Él y su novia habían visitado a la familia en Arizona. Su sobrina lo llevó a ver la película Lilo y Sew. Estaba trabajando duro en una nueva empresa emergente. Me contó todo esto en español, un idioma que nunca he estudiado, pero entendí cada palabra.

Le entendí porque llevaba puestos los nuevos auriculares de Apple que saldrán a la venta el viernes. Los AirPods Professional 3, que cuestan 250 dólares, utilizan inteligencia synthetic para realizar traducciones en tiempo actual, su característica nueva más significativa. (Los auriculares, que tienen una cancelación de ruido ligeramente mejor, no son muy diferentes de la última versión). Mientras mi amigo hablaba, el asistente digital de Apple, Siri, actuaba como intérprete, hablando con una voz robótica que convertía inmediatamente las palabras en español a inglés en mis oídos.

Más tarde, revisé la transcripción de la conversación generada en mi iPhone para verificar cuán precisa period la traducción. Salvo algunos errores en los que Siri confundió los pronombres (se refirió a la novia de mi amigo como “él” en lugar de “ella”), la traducción period correcta.

Me impresionó. Este fue el ejemplo más claro que he visto de una tecnología de inteligencia synthetic que funciona de manera eficiente y práctica, lo que podría ser beneficioso para muchas personas. Los hijos de migrantes que prefieren hablar su lengua materna podrían tener más facilidad para comunicarse. Los viajeros que visitan países extranjeros podrían entender mejor a los taxistas, al private de los hoteles y a los empleados de las aerolíneas.

También me ayudaría en mi vida cotidiana a entender a un contratista o a un empleado de management de plagas que no habla inglés y que intenta explicarme lo que ha encontrado debajo de mi casa.

Y, para ser sinceros, también me sorprendió. La incursión de Apple en la inteligencia synthetic generativa, la tecnología que impulsa chatbots como ChatGPT de OpenAI y Gemini de Google, ha sido complicada, por decir lo menos. La empresa nunca terminó de lanzar algunas de las funciones de inteligencia synthetic que prometió para el iPhone 16 del año pasado porque la tecnología no funcionaba bien. Y las herramientas de IA de Apple disponibles para la edición de fotos y el resumen de artículos han sido decepcionantes en comparación con herramientas similares de Google.

La sólida tecnología de traducción de los AirPods es una señal de que Apple sigue en la carrera de la inteligencia synthetic, a pesar de sus tropiezos iniciales. Los traductores digitales no son nuevos, pero la ejecución de esta función por parte de Apple con los AirPods, un producto que se adapta perfectamente a los oídos, debería marcar una gran diferencia en la frecuencia con la que la gente utiliza esta tecnología.

Durante más de una década, los consumidores han tenido dificultades con las aplicaciones de traducción de idiomas en sus teléfonos que eran incómodas de usar, como Google Translate y Microsoft Translator. Estas aplicaciones exigían a los usuarios acercar el micrófono de su teléfono a la persona que hablaba en otro idioma y esperar a que la traducción se mostrara en la pantalla o se reprodujera a través de los pequeños altavoces del teléfono. Las traducciones solían ser inexactas.

Por el contrario, los usuarios de AirPods solo tienen que hacer un gesto para activar el intérprete digital. Aproximadamente un segundo después de que alguien empieza a hablar, la traducción se reproduce en el idioma preferido del usuario a través de los auriculares.

Esto es lo que necesitas saber sobre cómo utilizar el traductor, cómo funciona la tecnología y por qué es possible que sea mejor que las aplicaciones de traducción anteriores.

Configurar los AirPods Professional fue muy sencillo. Abrí el estuche junto a mi iPhone y pulsé un botón para emparejar los auriculares. Para utilizar el software program de traducción, tuve que actualizar al último sistema operativo, iOS 26, y activar Apple Intelligence, el software program de inteligencia synthetic de Apple.

Luego tuve que abrir la nueva aplicación Translate de Apple y descargar los idiomas que quería traducir. Actualmente están disponibles el español, el francés, el alemán, el portugués y el inglés, y pronto se añadirán más. Seleccioné el idioma que hablaba la otra persona (en este caso, el español) y el idioma en el que quería escucharlo.

Hay varios atajos para activar el intérprete, pero la forma más sencilla es mantener pulsados ambos auriculares AirPods durante unos segundos, lo que reproducirá un sonido. A partir de ahí, ambas personas pueden empezar a hablar y aparecerá una transcripción en la aplicación Translate mientras una voz lee en voz alta las palabras traducidas.

Los propietarios de los AirPods Professional 2 de 2022 y de los AirPods 4 del año pasado con cancelación de ruido también pueden obtener la tecnología de traducción si actualizan su software program. También se necesita un iPhone reciente, como el iPhone 15 Professional o un dispositivo de la serie 16, para utilizar Apple Intelligence y realizar las traducciones.

Para que una conversación fluida se traduzca en ambos sentidos, lo mejor es que ambas personas lleven puestos los AirPods. Dada la popularidad de los auriculares de Apple, con cientos de millones vendidos en todo el mundo, esto parece bastante factible.

Sin embargo, hay ocasiones en las que esta tecnología será útil incluso si solo una persona lleva AirPods. Muchas personas migrantes con las que interactúo, entre ellas la niñera de la familia y mi suegra, se sienten cómodas hablando solo en su lengua materna, pero pueden entender mis respuestas en inglés, por lo que el hecho de que yo también pueda entenderlas sería de gran ayuda.

Los AirPods emplean los grandes modelos lingüísticos, la tecnología que utiliza estadísticas complejas para adivinar qué palabras van juntas, lo cual debería hacer que las traducciones sean más precisas que las tecnologías anteriores, dijo Dimitra Vergyri, directora de tecnología del habla en SRI, el laboratorio de investigación responsable de la versión inicial de Siri antes de que fuera adquirida por Apple.

Algunas palabras tienen diferentes significados según el contexto, y los grandes modelos lingüísticos son capaces de analizar el alcance completo de una conversación para interpretar correctamente lo que dicen las personas. Las tecnologías de traducción más antiguas realizaban traducciones fragmentadas, una frase cada vez, lo que podía dar lugar a grandes errores debido a la falta de contexto, dijo Vergyri.

Sin embargo, la tecnología de inteligencia synthetic de los AirPods podría tener aún puntos ciegos que podrían dar lugar a situaciones sociales incómodas, añadió. Las palabras por sí solas no tienen en cuenta otros tipos de contexto, como las emociones y los matices culturales. En Marruecos, por ejemplo, puede ser descortés intervenir en una conversación sin un saludo adecuado, lo cual a menudo implica preguntar por la familia y la salud de la persona.

“Sigue existiendo una brecha para la comunicación actual”, dijo Vergyri. Sin embargo, añadió que la tecnología de traducción cobraría cada vez más importancia a medida que los trabajadores de las empresas se vuelven más globales y necesitan comunicarse entre culturas.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles