La traduction automatique : menace ou opportunité ? Retour sur la journée d’études #TQ2018 du 2 février 2018

Par Simon Watier, étudiant M1 TSM

 

A3_Conférence #TQ2018

À l’occasion de la sixième édition de la journée d’études dédiée à la traduction, l’Université de Lille  et le laboratoire « Savoirs, Textes, Langage » (STL) du CNRS ont organisé le vendredi 2 février une série de conférences qui ont pour objectif de définir le lien entre la biotraduction et la traduction automatique. Afin de dresser un portrait exhaustif de cette thématique complexe mais néanmoins essentielle neuf intervenants ont apporté leurs réponses, fruit de plusieurs années de recherches et de réflexions : Emmanuel Planas, Rudy Tirry, Véronique Huyghebaert, Sandrine Peraldi, Stéphanie Labroue, Fleur Schut, Daniel Prou, Aljoscha Burchardt et Antonio Balvet.

Pour comprendre l’impact de la traduction automatique il convient de retracer l’évolution des outils de TAO (Traduction Assistée par Ordinateur) pour mieux appréhender leur incidence dans le secteur de la traduction. En effet, les premiers outils de traduction automatique remontent avant les années 40, notamment avec le linguiste italien Federico Pucci, véritable précurseur de la traduction automatique moderne. En revanche celle-ci  était davantage considérée comme un outil de décryptage et non comme un véritable acteur de la traduction. La traduction automatique neuronale (TAN) imite le fonctionnement du cerveau humain et créer des voies neuronales pour traduire une phrase dans sa totalité. Elle succède ainsi à la traduction statistique (TAS) qui utilisait également un corpus, découpé en unités de traduction auxquelles on attribuait un score de probabilité.

 

220px-Triangle_de_vauquois.svg

Le triangle de Vauquois est le modèle de base de la traduction automatique.

 

La traduction automatique neuronale connait une véritable « hype » relayée, entre autre, par la presse. En effet la TAN ne se cantonne plus uniquement à la sphère professionnelle, elle fait désormais partie intégrante du quotidien (Google Translate, Facebook, Amazon, DeepL, les exemples sont légion). Pour mieux illustrer le propos, une opposition entre  la TAN et la TAS semble nécessaire afin d’exposer les avantages et les inconvénients de chacun. Le verdict n’en est que plus complexe car si la TAN assure une traduction plus fluide notamment au niveau de la syntaxe, la TAS est plus performante sur la terminologie, un point pourtant essentiel dans le travail du traducteur. Il ne faut pas omettre pour autant la post-édition qui est constituée de 3 niveaux : Full MTPE (Machine Translation Post-Editing) qui ne se distingue pas de la biotraduction, Light MTPE qui se concentre avant tout sur le sens et non sur l’approche stylistique et Focused MTPE qui examine des éléments spécifiques comme les nombres, les noms. Au final l’approche humaine demeure la clef de voûte de la traduction car si la technologie ne cesse de se perfectionner, celle-ci est incapable de retranscrire la créativité et la subtilité de l’Homme.

Heureusement les traducteurs ne sont pas en reste question ressources. Jonckers, une société de traduction créée il y a une vingtaine d’années et présente dans 10 pays a développé des outils afin de fluidifier la gestion de la post-édition, source de nombreux défis à relever. En effet différents maux liés au volume demandé peuvent affecter l’ensemble du processus (retards, client insatisfait, burn-out des traducteurs). Pour y remédier, l’entreprise a créé le Loclab, un centre de post-édition en interne qui a permis de favoriser l’échange et la proximité entre les traducteurs et les formateurs. L’aspect commercial est évidemment de mise puisque les ventes d’un produit peuvent directement dépendre d’une bonne traduction. Ainsi, un système de contrôle de qualité est instauré, 5 % du contenu est extrait puis vérifié, afin de transmettre le score obtenu au post-éditeur. La post-édition est basée sur un moteur de traduction automatique qui permet à la fois un gain de flexibilité et de productivité. Le plus important réside dans la compréhension et l’adaptation aux besoins du client.

 

photo2fev

 

Désormais la traduction automatique est perçue de manière positive, elle ne représente plus une menace pour le traducteur mais bien une aide précieuse. Son implantation dans la formation des traducteurs constitue une preuve irréfutable. Paradoxalement peu d’articles ont été consacrés à ce sujet alors que plusieurs auteurs se sont penchés sur la question d’un point de vue épistémologique. 85 % des formations privilégient les outils les plus utilisés sur le marché, ce choix est directement lié aux pratiques des traducteurs.

Cependant plusieurs études consacrées à l’intégration des outils de TAO ont montré que la plupart des formations privilégiaient l’apprentissage de l’outil sur l’acquisition de véritables compétences en conditions de travail réelles. Il convient de prendre en considération deux aspects : la dimension professionnalisante qui désigne la compréhension des difficultés inhérentes au déploiement d’un nouvel outil dans le travail et la dimension cognitive, liée à la gestion des émotions des traducteurs face aux nouvelles technologies qui peuvent les déstabiliser. De même, l’automatisation d’une partie du processus peut perturber des stratégies de traduction (éloignement du texte source, multiplication des efforts cognitifs). Ainsi les émotions jouent une place prépondérante dans la perception mais aussi dans la performance des outils.

 

photo2fev2

Divers outils comme Euramis (base de données des traductions effectuées dans les institutions européennes), MT@EC (moteurs statistiques avec 79 paires de langues directes), et eTranslation (moteurs neuronaux avec 6 paires de langues) sont quant à eux davantage destinés aux traducteurs de la Commission européenne. La TA peut être utilisée de deux manières : par segment entier ou par fragments successifs. De même la traduction automatique est plus efficace avec certaines langues que les moteurs statistiques, notamment l’estonien.

Systran, qui n’est autre que le leader mondial des technologies de la traduction, a développé un moteur PNMT (Pure Neural Machine Translation) basé sur des réseaux de neurones artificiels et du deep learning. Trois principaux composants constituent la chair de ce système PNMT à savoir le word embedding (prolongement de mots) qui se focalise sur l’apprentissage d’une représentation de mots, les réseaux de neurones récurrents dans lesquels l’information peut se propager dans les deux sens, et l’attention model (modèle d’attention) qui désigne la capacité du moteur à collecter des informations sur des mots spécifiques. Ce moteur pourra s’appliquer dans un futur proche aux correcteurs informatiques et aux chatbot (agents conversationnels). Toutefois cela soulève de nouveaux défis à relever : comment analyser et corriger une erreur ? Comment configurer un moteur pour une tâche très spécifique ? L’IA sera-t-elle capable de rivaliser avec l’être humain en termes de pertinence ?

 

photo2fev3

 

Ainsi s’achève la journée d’études qui a permis de dépoussiérer les notions de bases de la traduction automatique pour mieux cibler les tenants et la aboutissants auxquels devront faire face les traducteurs pour intégrer le marché du travail. Si la technologie ne cesse de se perfectionner, elle pose également ses limites quant à sa capacité à s’adapter. Celle-ci fait toujours l’objet de certaines critiques qui voient en elle une menace pour le biotraducteur. Cependant l’expérience et la recherche combinées des professionnels ont permis de démontrer son apport vital au sein de ce secteur. La traduction automatique neuronale constitue une nouvelle avancée qui imite les réseaux et les connections synaptiques humaines pour mieux cibler le contexte et la terminologie des mots. Cela ouvre tout un nouveau champ de possibilités qui amènera peut-être une imitation quasi-parfaite de la réflexion humaine.

 

NB : la plupart des présentations de la journée du 2 février sont disponibles en ligne sur le site de la conférence : https://tq2018.sciencesconf.org/ 

Publicités