Tout est parti d'un groupe de chercheur chez Google qui travaillaient pour améliorer les algorithmes de traduction pour les rendre + pertinents et + rapides :
Noam Shazeer, Llion Jones , Jakob Uszkoreit, Illia Polosukhin, Ashish Vaswani, Niki Parmar , Aidan Gomez, Lukasz KaiserLes algos traitaient toujours ces sĂ©quences de manière strictement sĂ©quentielle – mot par mot fastidieux – et il manquait des indices contextuels qui pourraient apparaĂ®tre plus loin dans le texte. « Les mĂ©thodes appliquĂ©es Ă©taient en fait des pansements », pour Uszkoreit un des co auteurs Transformer.
« Nous ne pouvions pas obtenir les bons Ă©lĂ©ments pour vraiment fonctionner Ă grande Ă©chelle. »
En 2014, il a commencĂ© Ă Ă©laborer une approche diffĂ©rente qu’il a appelĂ©e
« auto-attention ».
Ce type de rĂ©seau peut traduire un mot en faisant rĂ©fĂ©rence Ă n’importe quelle autre partie d’un passage.
Ces autres parties peuvent clarifier l’intention d’un mot et aider le système Ă produire une bonne traduction.
Jakob Uszkoreit pensait qu’un modèle d’auto-attention pourrait ĂŞtre potentiellement plus rapide et plus efficace que les rĂ©seaux neuronaux rĂ©currents. La façon dont il gère les informations Ă©tait aussi parfaitement adaptĂ©e aux puces GPU qui Ă©taient produites en masse pour soutenir l’essor de l’apprentissage automatique. Au lieu d’utiliser une approche linĂ©aire (examiner chaque mot dans l’ordre), il adopte une approche plus parallèle (examiner plusieurs mots ensemble).
En 2016 l'équipe a élaboré un document de conception intitulé
« Transformers : Auto-attention et traitement itĂ©ratifs pour diverses tâches ».
Et ce nom « transformers » a Ă©tĂ© choisi en rĂ©fĂ©rence au « jour zĂ©ro ».
L’idĂ©e Ă©tait que ce mĂ©canisme transformerait les informations qu’il recueillait, permettant au système d’extraire autant de comprĂ©hension qu’un humain pourrait le faire – ou du moins de donner l’illusion de cela.
⏹️ Et pourquoi ce nom ❓
Parce que Uszkoreit Ă©tait fan des jeux avec les figurines d’action Hasbro.
C'est Noam Shazeer qui a codé l'Algo de transformateurs ce qui a permis de faire les premiers jeux de résultats dans l'optique de les publier (et de déposer des brevets! )
Tous étaient motivés pour respecter une échéance importante :
le 19 mai2017,
date limite de dĂ©pĂ´t des articles Ă prĂ©senter lors du plus grand Ă©vĂ©nement de l’annĂ©e consacrĂ© Ă l’IA, la confĂ©rence Neural Information Processing Systems en dĂ©cembre 2017.
Et c'est de ces Transformers que vient le T de ChatGPT
(Et c'est Ă ce moment lĂ qu'on comprend l'importance de mon histoire!
mais c'est que le début....à suivre !!!!! )
đź”— L'article Attention is all your need
Alors ce fameux article de
Noam Shazeer, Llion Jones , Jakob Uszkoreit, Illia Polosukhin, Ashish Vaswani, Niki Parmar , Aidan Gomez, Lukasz Kaiser
a suscitĂ© un certain buzz. La session de quatre heures du 6 dĂ©cembre 2017 Ă©taient bondĂ©e . Les auteurs ont parlĂ© jusqu’Ă 22 h 30, lorsque la session s’est terminĂ©e, il y avait encore du monde. La sĂ©curitĂ© a dĂ» faire de partir les plus bavards.
Google, comme presque toutes les entreprises technologiques, a rapidement dĂ©posĂ© des brevets provisoires sur ces travaux. Il ne s’agissait pas d’empĂŞcher d’autres d’utiliser ces idĂ©es, mais de constituer son portefeuille de brevets Ă des fins dĂ©fensives. (La philosophie de l’entreprise est la suivante : « Si la technologie progresse, Google en rĂ©coltera les bĂ©nĂ©fices. »)
🏎️ Une start-up du nom d’OpenAI a Ă©tĂ© beaucoup plus rapide Ă rĂ©agir .
Peu après la publication de l’article, le chercheur en chef d’OpenAI,
Ilya Sutskever, qui connaissait l’Ă©quipe Transformer lorsqu’il travaillait chez Google, a suggĂ©rĂ© Ă l’un de ses scientifiques, Alec Radford, de travailler sur l’idĂ©e. Les rĂ©sultats ont Ă©tĂ© les premiers produits GPT. Comme me l’a dit l’annĂ©e dernière le CEO d’OpenAI, Sam Altman, « lorsque l’article sur Transformer est sorti, je ne pense pas que quiconque chez Google ait compris ce que cela signifiait. »
Du coup en interne chez Google c'est compliquĂ©e. « Il Ă©tait assez Ă©vident pour nous que les transformateurs pouvaient faire des choses vraiment magiques », explique Uszkoreit.
La grande question n'est pas de savoir s'ils l'ont vu. La question est de savoir pourquoi ils n'ont rien fait du fait qu'ils connaissaient ce projet.
Mais sans cet environnement Google , pas de transformateur.
Non seulement les auteurs étaient tous des employés de Google, mais ils travaillaient aussi dans les mêmes bureaux. Les rencontres dans les couloirs et les conversations entendues au cours du déjeuner ont donné lieu à de grands moments. Le groupe est également diversifié sur le plan culturel. Six des huit auteurs sont nés hors des États-Unis ; les deux autres sont respectivement les enfants de deux Allemands détenteurs de cartes vertes qui se trouvaient temporairement en Californie et d'un Américain de première génération dont la famille a fui les persécutions.
Uszkoreit, aujourd'hui explique que l’innovation est avant tout une question de conditions propices. « Il faut rĂ©unir des gens qui sont très enthousiastes Ă propos d’un projet et qui sont au bon moment de leur vie », explique-t-il. « Si vous avez cela, que vous vous amusez et que vous travaillez sur les bons problèmes – et que vous avez de la chance – la magie opère. »
Etonnant comment l'histoire de l'innovation se répète !
Non?
Références
https://france.devoteam.com/paroles-dexperts/attention-is-all-you-need-comprendre-le-traitement-naturel-du-langage-avec-les-modeles-transformers/
https://www.youtube.com/watch?v=PcfsAuDTt1I
https://www.youtube.com/watch?v=fjJOgb-E41w
https://www.youtube.com/watch?v=bCz4OMemCcA
https://www.youtube.com/watch?v=eMlx5fFNoYc
Aucun commentaire:
Enregistrer un commentaire