#TQ2020 Biotraduction et traduction automatique : retour sur la journée d’études Traduction et Qualité du 31 janvier 2020

 

Par Oriane Briand, étudiante M2 TSM

tq2020_site

 

Le laboratoire « Savoirs, Textes, Langage » du CNRS et l’UFR Langues Étrangères Appliquées de l’université de Lille ont organisé, pour sa 7e édition, une journée d’études consacrée à la biotraduction et à  la traduction automatique. Petit bilan du cru 2020.

L’année 2020 vient à peine de commencer, une décennie 2.0 pour cette journée d’études 2.0 elle aussi, puisque l’édition de 2018 était déjà dédiée à la traduction automatique (TA), aussi appelée traduction machine.

Le programme est chargé, l’amphithéâtre est bondé en cette belle journée de fin janvier. Cette journée a pour but de redéfinir le lien entre l’humain et la machine dans le monde de la traduction, un monde qui a en effet été chamboulé par l’arrivée de la traduction automatique neuronale. La journée se découpe en trois thématiques : traduction automatique et monde professionnel, traduction automatique et métiers de la traduction et enfin analyse de la traduction automatique. Dix intervenants se sont succédé sur l’estrade, universitaires comme professionnels, et ont tenté d’apporter leurs éléments de réponse.

La traduction automatique neuronale (TAN) a fait son apparition vers le milieu des années 2010. Auparavant, d’autres systèmes étaient utilisés comme la traduction automatique statistique (TAS). Alors que pouvons-nous attendre de la TAN et comment pouvons-nous l’utiliser comme un outil pour le traducteur, et non plus le voir comme une menace, comme elle est souvent perçue ?

Le fonctionnement de la TAN n’est pas évident pour tout le monde. Les algorithmes utilisés sont complexes et mystérieux. Et pourtant, elle est partout. Elle est utilisée par des millions de personnes tous les jours et fait partie intégrante de notre quotidien comme de notre environnement de travail. Mais quelle posture faudrait-il adopter face à ce trop-plein d’intelligence artificielle ?

Tout d’abord, il faut comprendre ce qu’est la traduction automatique neuronale et surtout, connaître ses points forts et ses points faibles. Car c’est en connaissant la machine avec laquelle nous travaillons que nous pouvons en retirer le meilleur. Par exemple, la TAN est capable de produire des sorties de textes fluides, ce qui peut parfois nous  tromper et donner l’illusion d’un texte bien traduit. Or, cette fluidité se fait, par exemple, au détriment de la terminologie. C’est lorsqu’on se penche sur le résultat qu’on se rend compte que le texte produit est incorrect. C’est pour cette raison que l’utilisation de la TAN ne peut se faire sans une intervention humaine, et, si cela peut vous rassurer, ne peut supplanter le traducteur comme on peut le penser. Mais comme pour chaque nouvelle avancée technologique, il faut se former et former les générations futures. Ainsi, enseigner de manière raisonnée l’utilisation de ce nouvel outil est crucial.

Aujourd’hui, l’intervention humaine face aux résultats de productions machine existe déjà. C’est le métier de post-éditeur. Lorsque nous regardons le marché de la traduction, il existe une certaine segmentation. Chacun son rôle et les moutons sont bien gardés. Mais l’émergence des nouvelles technologies (re)pose la question de l’organisation et de la gestion du projet de traduction. Par exemple, le post-éditeur ne pourrait-il pas être plus qu’un simple post-éditeur ? Il semble logique de demander son expertise à quelqu’un qui s’y connaît, qui est sur le terrain. Alors pourquoi ne pas faire appel aux connaissances et à l’expérience de quelqu’un qui travaille avec le contenu. Il est alors possible de redéfinir ce rôle et de l’impliquer à chaque étape du projet, que ce soit dans l’analyse de celui-ci (il peut estimer les délais, définir le processus le plus adapté…) ou dans ses étapes techniques. Il est important de redéfinir le rôle du post-éditeur dans les projets de TA, mais également redéfinir la gestion de ces projets. Chaque projet est unique, les résultats de TA sont variables tout comme l’effort de post-édition qui suit, et le post-éditeur ne peut qu’ajouter une plus-value.

Car la TAN n’est pas parfaite,  aujourd’hui encore, on tente de la décrypter. Il est important de comprendre ses faiblesses, mais également d’évaluer ce qu’elle produit. Il existe plusieurs méthodes. Quelques exemples :

  • La méthode BLEU, qui consiste à comparer une sortie machine avec une traduction humaine de référence
  • L’observation du système en le manipulant : modifier le texte source et observer si le texte cible se modifie en changeant les temps, les modes, les adjectifs, etc., et son inverse.
  • La dissection du système en ouvrant sa boite noire : interroger celle-ci pour tenter de prédire le résultat.
  • L’évaluation humaine : classement des résultats (par des professionnels ou non), identification et classement des erreurs.

Plusieurs études ont prouvé un gain de temps dans l’utilisation de la post-édition de traduction automatique neuronale, mais il est possible d’améliorer ses sorties de traduction en y incorporant de meilleures données d’apprentissage. Par exemple, une manière d’améliorer ce problème de terminologie serait d’incorporer des séries de textes spécialisés. Y incorporer ses propres corpus semble pour le moment compliqué, car les systèmes sont basés sur l’optimisation des algorithmes. Or, y incorporer ces données ferait baisser ce score d’optimisation. Il faudrait alors repenser le système et lui injecter ces connaissances dès le début de processus.

Comme vous pouvez l’avoir constaté, la traduction automatique neuronale génère de nombreuses questions et suscite un intérêt dans le monde de la traduction. Ses progrès ne semblent pas près de s’arrêter et en parler permet de découvrir de nombreux angles d’approche qui se complètent. Une approche raisonnée et scientifique permet de poser un regard critique sur la machine, et de réconcilier peut-être ce qui ne semblait pas être un couple évident : l’humain et la machine.

 

Un grand merci à Joss Moorkens, Caroline Rossi, Nathalie de Sutter, Geert Benoit, Guillaume Deneufbourg, Sarah van der Vorst, François Yvon, Hanna Martikainen, Orphée De Clercq et Rudy Loock, ainsi qu’à l’université de Lille en partenariat avec le laboratoire « Savoirs, Textes, Langage » du CNRS et l’Association française des formations universitaires aux métiers de la traduction (AFFUMT).

 

La #TQ2020 a été filmée, vous pourrez la visionner dès cette semaine sur la webTV de l’université de Lille et sur le site dédié à cette journée.

Laisser un commentaire