200 langues traduites par un seul programme : Facebook – désormais Meta – repousse les limites de la traduction automatique par IA

Facebook – maintenant Meta – ouvre la voie à la traduction automatique de texte. Le 8 juillet 2022, le géant des médias sociaux (qui possède également Instagram et WhatsApp) a annoncé avoir développé un programme d’intelligence artificielle capable de prendre en charge la traduction de 200 langues. C’est le double du précédent record détenu par l’algorithme de Microsoft. Le modèle numérique de Meta, appelé NLLB-200 (comme dans « No Language Left Behind »), prend en compte les langues rares comme le lao (parlé au Laos), le kamba, le peul ou le lingala (parlé en Afrique). Peu ou pas intégrés aux logiciels de traduction précédents, ils sont pourtant utilisés par des millions de locuteurs. Pas moins de 45 millions de personnes parlent le lingala en RD Congo (République démocratique du Congo), en République du Congo, en République centrafricaine et au Soudan du Sud. Cependant – note Meta – seuls 3 260 articles de Wikipédia sont en lingala ; à comparer par exemple aux 2,5 millions d’articles en suédois, langue parlée par « seulement » 10 millions de personnes en Suède et en Finlande ! C’est l’objectif de NLLB-200 : offrir un meilleur accès au contenu en ligne aux milliards de personnes qui, jusqu’à présent, n’ont pas pu y accéder en raison de barrières linguistiques. Si Meta propose son programme en libre accès, ce qui permet à tout acteur de s’en saisir, la société fondée par Mark Zuckerberg a un intérêt immédiat à développer un tel service, Facebook fait quotidiennement près de 20 milliards de traductions sur son fil d’actualité… Antoine Bordes, directeur du Paris Center for Artificial Intelligence Meta (FAIR, Facebook Artificial Intelligence Research), laboratoire dont les chercheurs ont été à la pointe du développement de NLLB-200, répond aux questions de Sciences et Avenir sur le développement de ce modèle, aboutissement de six ns de recherche translationnelle avec intelligence artificielle. Et cela évoque la façon dont il pourrait s’intégrer dans le scénario métaverse à l’avenir.

« Mille milliards de paramètres ! »

Sciences et Avenir : Le programme NLLB-200 est supporté par un supercalculateur. Pourquoi?

Antoine Bordes : Pour assurer la traduction automatique de 200 langues, vous devez manipuler une quantité considérable de données. D’accord, un billion de paramètres ! C’est énorme, même si ces données peuvent être classées de trois manières différentes.

Quels sont ces trois types de données ?

Il y a d’abord – et c’est la partie minoritaire – les données de traduction. Fondamentalement, toutes les traductions existantes dans le domaine public des langues que nous traitons ont été incluses dans notre modèle. Ce sont des textes traduits par des humains.

Ensuite, il y a le texte « monolingue », non traduit, qui n’existe que dans sa version originale. Il peut s’agir de textes en anglais, français, italien… mais aussi en zoulou, assamais ou bengali (ou langues d’Afrique australe, indo-européennes et parlées au Bangladesh, ndlr). Nous les chercherons sur Internet pour alimenter le modèle ; en plus il y a la question de quelle langue il s’agit !

Enfin, le troisième type de données correspond à un processus créé par Meta et dont le code est open source : Laser 3 va parcourir le web à la recherche de phrases dans différentes langues qui veulent dire la même chose. Nous parlons de textes traduits dans lesquels des correspondances ont été trouvées automatiquement. J’insiste : ce ne sont pas des traductions écrites par des traducteurs, mais des « textes parallèles approximatifs » que notre système évalue avec les mots : « Oui, c’est la même chose ». Pensez à l’actualité : lorsqu’un événement d’envergure internationale se produit, il est rapporté dans le monde entier. Même les textes des journalistes comporteront des phrases ou des expressions que vous retrouverez dans toutes les langues et entre lesquelles Laser 3 pourra établir des correspondances.

« L’échelle des données est celle du Web multilingue »

Ainsi, le modèle NLLB-200 est alimenté par de vraies traductions humaines, des textes monolingues et des traductions approximatives ?

Oui, le volume de données est le même que le web multilingue. Par conséquent, il est nécessaire d’utiliser une énorme calculatrice pour avoir un modèle capable de consommer tout cela, de le croquer, de l’apprendre et enfin de traduire d’abord plus de langues, et aussi avec une meilleure qualité. Dans les langues déjà couvertes par la traduction automatique, l’amélioration moyenne réelle est de 44 %.

Ce type d’évaluation pour évaluer la qualité de la traduction est effectué par un outil d’évaluation appelé FLORES-200. Il a également été développé par le laboratoire d’IA de Facebook. N’êtes-vous pas juge et partie ?

Premièrement, ce n’est pas une volonté de notre part de concevoir nous-mêmes un outil d’évaluation, mais une nécessité. Il n’y avait tout simplement pas un tel dispositif pour couvrir les langues rares. C’est compliqué à mettre en place : il faut trouver des locuteurs capables de traduire. Nous avons dû embaucher des traducteurs qui travaillaient en deux équipes distinctes : l’une produit la traduction du texte, l’autre évalue la traduction résultante. C’est une façon d’éliminer les préjugés. Mais, oui, Meta est en train de créer un outil de validation ainsi qu’un modèle : ne s’en félicite-t-on pas ? La question est légitime. Nous y répondons en rendant tout « open source ». Tout est annoncé, c’est notre juge. Notre document de recherche est énorme, plein de détails, mais disponible. Meta est vraiment ouvert à l’amélioration et à la critique de manière purement scientifique, en termes de répétabilité et d’examen par les pairs.

« Le Web va évoluer de la 2D à la 3D »

Comment la traduction automatique s’inscrit-elle dans le scénario métavers, cette évolution du web alimentée par Facebook et Meta ?

Très central. Nous voulons un métaverse inclusif qui soit une source d’opportunités pour le plus grand nombre de personnes possible. L’un des leviers est de franchir la barrière de la langue. Le métaverse doit être fondamentalement polyglotte. Imaginez participer à une réunion virtuelle en Afrique subsaharienne. La traduction automatisée permet de parler à tout le monde, même sans pratiquer la langue utilisée par la plupart des participants. Le métavers doit créer cet environnement où nous pouvons parler, échanger, dialoguer – y compris donner une chance aux personnes qui ne parlent pas bien anglais ; après tout, 80% des informations sur le web sont dans cette langue !

NLLB-200 est orienté texte écrit. Mais Meta a un autre projet connexe : Universal Speech Translator, une traduction voix à voix en temps réel. En maintenant les accents, les silences, la prosodie… tout ce qui fait une conversation. Les deux projets sont complètement complémentaires — leurs équipes travaillent en étroite collaboration — donc d’une part nous augmentons le nombre de langues automatisées qui sont traduites de manière automatisée, et d’autre part nous nous penchons sur le sujet « discours à parole ». Au final, à terme sans doute, on pourrait traduire 200 langues en « voix à voix » en temps réel. Ce sera un métavers.

Meta est très volontaire sur ce sujet… mais n’êtes-vous pas le seul à le croire ?

Je ne pense pas du tout. Regardez le récent salon Vivatech : il n’y avait pas que le stand Meta qui parlait des métaverses, loin de là ! Si c’est un défi de se dire qu’on risque d’être seul là-bas, je ne suis pas du tout inquiet. De nombreux acteurs pensent que le web va évoluer de la 2D vers la 3D, avec un côté immersif déterminant pour les problématiques de bureautique, de divertissement, de travail ou encore de gaming. Nous sommes convaincus que c’est l’avenir d’Internet, et surtout l’avenir de la communication, de la projection sociale et des relations en ligne. On y croit et on y va.

Laisser un commentaire