Progrès technique dans la traduction automatique

L’un des plus importants développements dans le traitement automatique des langues a été l’expansion et l’amélioration des logiciels de traduction. Tandis qu’auparavant c’était le cas que les rédacteurs devaient engager des professionnels pour traduire à la main même les documents les plus banals, ce qui coûtait cher, aujourd’hui, il y a une variété de solutions numériques pour la traduction.

Voyons l’évolution de la traduction automatique, dès les logiciels de traitement de textes jusqu’à l’intelligence artificielle.

Ordinateurs personnels

Dans les années quatre-vingt, où l’un des outils de travail les plus avancés disponibles à nous était la machine à écrire numérique, les logiciels de traduction étaient rares et hautement spécifiques. Dans les grandes corporations, possiblement, on avait des logiciels pour ordinateurs centraux tels que Systran ou Logos, mais pour l’utilisateur commun, à la maison, le développement des logiciels de traduction était limité par la puissance de calcul requise pour imiter la parole et traduire des alphabets, des grammaires et des syntaxes complètement différents.

Les premiers pionniers furent les programmeurs d’ordinateurs de cinquième génération au Japon qui ont développé le calcul parallèle et la programmation logique, augmentant ainsi la capacité des ordinateurs de bureau. Ces développements ont été inspirés par la nécessité de traduire entre l’anglais et le japonais pour des fins commerciales. Entre les entreprises connues qui avaient besoin d’un grand volume de traductions étaient Fujitsu, Mitsubishi, Toshiba et Hitachi.

Intergraph et Systran ont commencé à offrir systèmes de traduction pour PC à la fin de la décade. Et Babble Fish, le moteur de traduction en ligne fourni par Systran et hébergé par Alta Vista, a été lancé en 1997.

Trados

En même temps, en Allemagne, Jochen Hummel et Iko Knyphausen travaillaient ensemble, depuis 1984, sur un logiciel de traduction chez Trados. En 1992, ils ont lancé Multiterm, une base de données de terminologie pour traducteurs. Comme la plupart des systèmes qui existaient à cette époque, ce logiciel offrait une base de données intelligente et non pas une analyse logique à un haut niveau.

En 1997, Trados GmbH a reçu un coup d’encouragement de la part de Microsoft, qui avait décidé d’utiliser la technologie de Trados pour ses traductions internes. À partir de ce moment, la compagnie a subi une croissance soutenue et, aujourd’hui, elle offre Trados Studio a 270 000 professionnels de la traduction.

Plate-formes pour les mémoires de traduction

Le développement des systèmes de gestion de traduction a été un autre grand bond en avant. En même temps que ces systèmes accélèrent les processus de traduction de documents formels tels que les documents juridiques, médicaux et financiers, ils créent des bases de données de termes fréquents, lesquels ils affichent lorsqu’une expression similaire est utilisée, garantissant ainsi la production de traductions exactes et éprouvées.

Tels systèmes apprennent dans le sens de qu’ils grandissent au pas de la compétence des utilisateurs, en enregistrant des phrases et termes qui ont été utilisés correctement auparavant. Mais ils ne traduisent pas les nuances de style ou les locutions idiomatiques.

SDL Trados a incorporé rapidement les mémoires de traduction à ses systèmes de traduction assistée par ordinateur (CAT, par son sigle en anglais). D’autres fournisseurs clés de ce type de logiciel incluent WordFast (fondé en 2006) et, dans le domaine d’Internet, Google Translate, est devenu omniprésent (d’autres plate-formes tels que Gengo et Ackuna sont également apparues).

L’avantage de la migration de tels systèmes vers Internet était, bien entendu, de s’appuyer sur des corpus toujours plus grands d’unités de traduction, des ensembles de phrases reconnues comme des équivalents fonctionnels dans plusieurs langues.

Traduction automatique

Avec l’avènement de la traduction automatique (MT, par son sigle en anglais), une logique améliorée et un contexte spécifié ont été ajoutés à l’arsenal de techniques utilisées pour obtenir une traduction fiable. Les substitutions de mots seraient adaptées à des milieux spécifiques et des ensembles de règles linguistiques toujours plus complexes pourraient être appliqués pour garantir la production de traductions idiomatiques précises.

La traduction basée sur la grammaire, qui est relativement rigide et basée sur des règles, a été progressivement remplacée par un modèle plus statistique. Cependant, un système hybride qui combine les deux méthodes pourrait produire des traductions toujours plus précises.

Moteurs d’intelligence artificielle

Dans le XXIe siècle, les systèmes de reconnaissance vocale, tels que l’assistent virtuel d’Apple, Siri, utilisent des algorithmes de reconnaissance vocale pour identifier la langue parlée et pour la transformer en texte. Ceci est accompli après un apprentissage de l’idiolecte (usages propres à un individu) de l’utilisateur.

Les systèmes de traduction automatique neuronale (NMT, par son sigle en anglais) apprennent également à partir de morceaux de texte, lesquelles ils intègrent à travers des réseaux neuronaux artificiels pour construire un modèle statistique, à partir duquel ils offrent des traductions toujours plus précises. Ils créent un réseau neuronal virtuel qui est suffisamment intelligent pour fixer son regard sur différentes parties d’une phrase afin de créer une image globale de son signifié, plutôt que de traduire une unité à la fois.

Ces systèmes cherchent à comprendre à la fois la grammaire d’une langue et les usages stylistiques de leurs utilisateurs individuels. Google est actuellement à l’avant-garde, bien qu’il y ait d’autres sociétés telles que Microsoft, Amazon et DeepL en concurrence pour offrir les traductions les plus proches des traductions humaines, lesquelles peuvent ensuite être raffinées grâce au travail de postédition d’un linguiste humain.

Dans les temps qui courent, où la reconnaissance vocale est répandue partout dans le monde et où il y a une forte demande de traductions entre les langues avec de grandes différences d’orthographe (p. ex., anglais, mandarin, russe), les réseaux neuronaux d’intelligence artificielle continueront à être un sujet de recherche important dans les prochaines décades.