En septembre 2016, Google lançait son « Neural Machine Translation (GNMT) system » basé sur une technologie de deep learning devant offrir aux utilisateurs une traduction beaucoup plus naturelle entre les différents langages.
A l’origine, 10 ans auparavant, Google Traduction ne gérait qu’une poignée de langues. Aujourd’hui, il en reconnait plus de 100 et traduit plus de 140 milliards de mots chaque jour !
Un challenge qui crée la surprise
De fait, créer un nouveau système qui permet de traduire autant de langues à la fois est extrêmement complexe. Les équipes de Google ont donc voulu savoir à quel point leur système était intelligent en lui lançant un défi. Ils lui ont appris à traduire de l’anglais vers le japonais et inversement, puis de l’anglais vers le coréen et vice-versa. Jusque-là rien d’extraordinaire et pourtant… les chercheurs ont découvert que le GNMT avait appris à traduire du japonais au coréen (et réciproquement) sans passer par l’anglais ! C’est comme si la machine avait construit son propre langage en se basant sur les concepts utilisés pour traduire des langues apprises auparavant.
Cette faculté, baptisée « interlingua », n’en est qu’à ses balbutiements et pourrait augurer de capacités beaucoup plus sophistiquées à l’avenir. L’équipe de Google Traduction a expliqué que « dans un même groupe, on voit une phrase avec le même sens mais provenant de 3 langues différentes. Cela signifie que le système est capable d’encoder en se basant sur la sémantique de la phrase plutôt que sur une traduction mot à mot. Nous interprétons cela comme l’apparition d’une interlangue dans le système ».
En d’autres termes, le système a su créer un modèle de lui-même, sans intervention de l’homme, pour faciliter sa propre compréhension des langages humains.
L’IA n’a certainement pas fini de nous surprendre 😉
Source : World Economic Forum
Partager la publication "L’outil de traduction Google à base d’IA semble avoir inventé son propre langage !"
