En quoi BERT peut-il vous rendre service ?
Vous allez pouvoir utiliser un moteur de recherches qui tiendra compte de vos mots clés (comme tous les moteurs de recherche), mais qui en plus va prendre en compte la manière que vous aurez de les assembler ensemble.
Les résultats de vos recherches seront donc plus proches des résultats d'une conversation que d'une source de type dictionnaire... le tout sera donc plus intuitif et naturel.
" Fondamentalement, BERT doit permettre de comprendre le « sens » d’une requête et, donc, la signification des mots qui sont utilisés dans un contexte précis. En somme, il ne s’agit plus de prendre les termes isolément, mais de les comprendre selon leur voisinage. Or, cela nécessite de tenir compte de certains éléments d’une requête qui étaient jusqu’à présent délaissés, parce que jugés secondaires. "
Et concrètement ? à propos de BERT ...
Pandu Nayak, qui est actuellement le vice-président de la recherche au sein de Google, donne des exemples précis... dont celui donné par Julien Lausson dans son article.
" Auparavant, dans une requête demandant à Google s’il est possible d’aller récupérer un médicament à la pharmacie pour un tiers, le moteur de recherche se focalisait sur « récupérer », « médicament » et « pharmacie ». Il ne tenait pas compte d’un passage pourtant clé : « autrui ».
Désormais, BERT est capable de comprendre que le retrait d’un traitement n’est pas pour vous, mais de toute évidence pour un proche. Par conséquent, le résultat qui sera mis en avant sera une page du ministère américain de la Santé et des Services sociaux, qui répond justement à cette interrogation. Et cela, même si elle peut être très ancienne : en l’espèce, Google a montré que cela a fait remonter une page de 2002. "
Les atouts de BERT à votre service !
Partant de toutes les informations recueillies, je suppose que BERT vous permettra :
- de trouver des réponses à vos questions de manière plus intuitive et précise,
- répondre de manière plus efficace aux questions posées à l'oral comme :
-
- aux objets connectés comme les enceintes connectées (par exemple celles de Google, Amazon ou Apple),
- aux assistants vocaux pour l'e-accessibilité.
- de pouvoir mentionner des sentiments dans vos recherches (ils sont en effet mieux compris) et qu'elles soient prises en compte, ce qui est utile je trouve :
-
- pour trouver des cadeaux en toutes occasions comme à la Saint Valentin ou pour des anniversaires ou des mariages,
- pour trouver des films ou des livres à offrir lorsqu'ils abordent des sentiments précis (en tant qu'illustratrice auteure, je ne peux qu'approuver ! ^-^).
- de moins trouver de contenus offensants (comme sur Twitter) ou hors la loi, puisque ce type d'avancée permettra normalement techniquement de mieux les repérer et donc d'avoir pour les autorités plus de contrôles et d'actions à mener,
- d'améliorer le référencement de votre site ou e-boutique grâce à une meilleure compréhension de son contenu :
-
- en donnant " la chance " à de bons articles sur des sites d'être visibles et ce même s'ils datent un peu ou que jusqu'à présent, ils n'apparaissaient pas sur les 3 premières pages de Google.
- en permettant aux e-boutiques "de niche" proposant un ou quelques produits précis ou originaux d'être mieux repérés à la suite d'une recherche d'un internaute,
- Attention :
-
- il vous faudra toujours proposer du contenu de qualité, hiérarchisé, efficace et bien pensé !
- ce n'est pas un filtre qui " juge " la qualité, mais plus un utilitaire pour mieux comprendre le contenu de votre site ou de votre e-boutique et son sens... afin de mieux le restituer aux internautes.
- etc.
Et vous, qu'en pensez-vous ?
BERT plus en détails " techniques "...
BERT : Késako ?
BERT est l'acronyme de Bidirectional Encoder Representations from Transformers ... alors oui je préfère son surnom assez "friendly", pas vous ? Il me fait pensé à un nom qui pourrait être donné à un cousin de WALL-E le fabuleux robot de Disney. ^-^
- BERT est à la base, un travail de recherche sur le traitement automatique du langage naturel, rendue publique lors d'une publication scientifique sur Arxiv, en octobre 2018.
- Les recherches disponibles sur GitHub en licence ouverte pour tous ceux qui peuvent l'utiliser notamment pour améliorer leurs moteurs de recherches ou autres projets.
Le fonctionnement de BERT
BERT utilise Transformer qui est un mécanisme d'attention qui apprend les relations contextuelles entre les mots (ou sous-mots) dans un texte.
- Courte définition d'un mécanisme d'attention,
- Courte explication technique de BERT,
- Comprendre le fonctionnement de BERT à l'aide d'illustrations expliquées,
- L'explication de Google en détails pour le fonctionnement de Transformer,
- Le cousin Français de BERT est CamemBERT, développé conjointement par Facebook AI Research, l'Inria et l'ALMAnaCH.
Une mise en place progressive : une arrivée en France
Google mettait en place cette mise à jour importante avec BERT en Anglais dès 2018 via ses labos, c'est désormais aussi dans 70 langages qu'il opère, notamment en Français.