Les AirPods vont traduire les conversations en temps réel

Nos écouteurs pourraient bientôt briser la barrière de la langue. Selon Bloomberg, Apple travaille sur une fonction qui transforme les AirPods en interprètes.

Article rédigé par Anicet Mbida
Radio France
Publié Mis à jour
Temps de lecture : 2min
Un AirPod tenu dans une main. Photo d'illustration. (MEDIANEWS GROUP/BAY AREA NEWS VI / MEDIANEWS GROUP RM / GETTYIMAGES)
Un AirPod tenu dans une main. Photo d'illustration. (MEDIANEWS GROUP/BAY AREA NEWS VI / MEDIANEWS GROUP RM / GETTYIMAGES)

Demain, il suffira d’activer un mode spécial sur les écouteurs. L’iPhone va alors détecter automatiquement la langue étrangère parlée autour de soi. Il va ensuite la traduire, en français, en temps réel. Et diffuser le résultat directement dans les AirPods. La fonction doit être présentée au mois de juin 2025 lors de la conférence annuelle d’Apple. On pourra ensuite en profiter gratuitement, cet automne, sur les AirPods actuels, avec la mise à jour IOS 19. Cette technologie fonctionnera aussi dans l’autre sens, pour traduire ce qu’on dit. Dans ce cas, tout ce qui est dit en français sera capté par les écouteurs, envoyé au téléphone, traduit et diffusé par les haut-parleurs dans la langue de son choix.

Contrairement aux applications actuelles, on ne sera plus obligés de s’échanger le téléphone chaque fois que quelqu’un parle. Tout se passera dans les écouteurs pour l’un. Tandis que l’autre prendra le téléphone. Les conversations devraient donc être plus fluides. Attention quand même à la façon dont la technologie sera mise en œuvre.

Apple va-t-il faire mieux ?

Cela fait quatre ans que Google propose la traduction en temps réel sur ses écouteurs Pixels Buds. Et si vous n’en avez jamais entendu parler, c’est parce que ça ne fonctionne pas bien. L’activation est alambiquée. La traduction en temps réel saute des mots. Elle n’arrive pas à suivre. Résultat : beaucoup reviennent au bon vieux Google Translate. On verra si Apple arrive à faire mieux.

Dans ce secteur, il y a aussi un petit nouveau, Français, qui se distingue. C’est le laboratoire Kyutai qui avait développé Moshi, une IA vocale ultra-performante, capable de faire preuve d’émotions.
Ils viennent de récidiver avec le premier interprète aussi rapide, voire même plus rapide, qu’un humain. 
Il s’appelle Hibiki. Son code est gratuit, libre. Donc n’importe qui peut s’en servir pour créer ces fameuses oreillettes qui traduisent comme dans les films de science-fiction.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.