1 / 3

Google explique comment il utilise l'IA et l'apprentissage automatique pour améliorer la recherche.

Lors d'un u00e9vu00e9nement diffusu00e9 en direct cet apru00e8s-midi, Google a expliquu00e9 en du00e9tail comment il applique l'IA et l'apprentissage automatique pour amu00e9liorer l'expu00e9rience de recherche Google.

FERGUSON825
Download Presentation

Google explique comment il utilise l'IA et l'apprentissage automatique pour améliorer la recherche.

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Google explique comment il utilise l'IA et l'apprentissage automatique pour améliorer la recherche Lors d'un événement diffusé en direct cet après-midi, Google a expliqué en détail comment il applique l'IA et l'apprentissage automatique pour améliorer l'expérience de recherche Google. Google indique que les utilisateurs pourront bientôt voir à quel point les lieux sont fréquentés dans Google Maps sans avoir à rechercher des plages, des épiceries, des pharmacies ou d'autres lieux spécifiques, ce qui constitue une extension des mesures de fréquentation existantes de Google. La société indique également qu'elle ajoute des informations de sécurité COVID-19 aux profils des entreprises sur les moteurs de recherche et les cartes, indiquant si elles utilisent des mesures de sécurité telles que des contrôles de température, des écrans en plexiglas, etc. Automatisation des centres d'appels : comment les assistants d'IA peuvent-ils coexister et aider les humains à mieux faire leur travail ? Avec les assistants intelligents d'IA qui envahissent tous les domaines, comment la main-d'œuvre humaine va-t-elle s'adapter ? Comment les assistants d'IA et les humains peuvent-ils coexister ? Quels sont les garde-fous que la société doit mettre en place ? Nous en discutons en nous plongeant dans une étude de cas sur l'automatisation des centres d'appels 1. Une amélioration algorithmique de "Did you mean ?" - la fonction de vérification orthographique de Google pour la recherche - permettra des suggestions orthographiques plus exactes et plus précises. Selon Google, le nouveau modèle linguistique sous-jacent contient 680 millions de paramètres (les variables qui déterminent chaque prédiction) et s'exécute en moins de trois millisecondes. "Ce seul changement apporte une amélioration de l'orthographe plus importante que toutes les améliorations que nous avons apportées au cours des cinq dernières années", a déclaré Prabhakar Raghavan, responsable de la recherche chez Google, dans un billet de blog. Google indique qu'il peut désormais indexer des passages individuels de pages Web, et non plus des pages entières. Lorsque ce système sera pleinement opérationnel, Google affirme qu'il améliorera environ 7 % des requêtes de recherche dans toutes les langues. Une composante complémentaire d'intelligence artificielle aidera la recherche à saisir les nuances du contenu des pages Web, ce qui devrait permettre d'élargir l'éventail des résultats des requêtes de recherche. Le principal événement sur l'IA appliquée pour les décideurs commerciaux et technologiques des entreprises, en personne le 19 juillet et virtuellement du 20 au 28 juillet.

  2. "Nous avons appliqué des réseaux neuronaux pour comprendre les sous-thèmes autour d'un intérêt, ce qui aide à fournir une plus grande diversité de contenu lorsque vous recherchez quelque chose de large", a poursuivi Raghavan. " Par exemple, si vous recherchez "équipement d'exercice à domicile", nous pouvons maintenant comprendre les sous-thèmes pertinents, tels que l'équipement à petit prix, les choix haut de gamme ou les idées pour les petits espaces, et vous proposer un plus large éventail de contenus sur la page de résultats de recherche." Google intègre également Data Commons - son référentiel de connaissances ouvert qui combine des données provenant d'ensembles de données publiques (par exemple, les statistiques COVID-19 des Centres américains de contrôle et de prévention des maladies) à l'aide d'entités communes cartographiées - aux résultats de recherche sur le Web et sur mobile. Dans un avenir proche, les utilisateurs pourront rechercher des sujets tels que "l'emploi à Chicago" sur le moteur de recherche pour voir les informations dans leur contexte. En ce qui concerne le commerce électronique et les achats, Google affirme avoir mis au point une technologie de streaming en nuage qui permet aux utilisateurs de voir les produits en réalité augmentée (RA). Avec les voitures de Volvo, Porsche et d'autres marques automobiles, par exemple, les utilisateurs de smartphones peuvent zoomer pour voir le volant du véhicule et d'autres détails - à l'échelle. Par ailleurs, Google Lens sur l'application Google ou Chrome sur Android (et bientôt iOS) permettra aux acheteurs de découvrir des produits similaires en tapant sur des éléments tels que des jeans vintage, des manches à volants, etc. La réalité augmentée de Google Search Dans une autre addition à la recherche, Google dit qu'il va déployer une fonctionnalité qui met en évidence les points notables dans les vidéos - par exemple, une capture d'écran comparant différents produits ou une étape clé dans une recette. Google prévoit que 10 % des recherches utiliseront cette technologie d'ici à la fin de 2020. De plus, Live View dans Maps, un outil qui utilise la réalité augmentée pour fournir des indications de marche détaillées, permettra aux utilisateurs de voir rapidement des informations sur les restaurants, notamment leur fréquentation et leur classement par étoiles. Enfin, Google annonce qu'il permettra aux utilisateurs de rechercher des chansons en fredonnant ou en sifflant simplement des mélodies, initialement en anglais sur iOS et dans plus de 20 langues sur Android. Vous pourrez lancer la fonctionnalité en ouvrant la dernière version de l'application Google ou du widget de recherche, en appuyant sur l'icône du micro et en disant "Quelle est cette chanson ?" ou en sélectionnant le bouton "Rechercher une chanson", suivi d'au moins 10 à 15 secondes de fredonnement ou de sifflement. "Une fois que vous avez fini de fredonner, notre algorithme d'apprentissage automatique aide à identifier les correspondances potentielles entre les chansons", écrit Google dans un billet de blog. "Nous vous montrerons les options les plus probables en fonction de la mélodie.

  3. Vous pouvez ensuite sélectionner la meilleure correspondance et explorer les informations sur la chanson et l'artiste, voir les vidéos musicales qui l'accompagnent, ou écouter la chanson sur votre application musicale préférée, trouver les paroles, lire l'analyse, et même vérifier d'autres enregistrements de la chanson lorsqu'ils sont disponibles." Google précise que les mélodies fredonnées dans Search sont transformées par des algorithmes d'apprentissage automatique en séquences basées sur des chiffres. Les modèles sont entraînés à identifier des chansons à partir de diverses sources, notamment des humains qui chantent, sifflent ou fredonnent, ainsi que des enregistrements en studio. Les algorithmes éliminent également tous les autres détails, tels que les instruments d'accompagnement, le timbre et la tonalité de la voix. Ce qui reste est une empreinte digitale que Google compare avec des milliers de chansons du monde entier pour identifier des correspondances potentielles en temps réel, un peu comme la fonction Now Playing du Pixel. "Des nouvelles technologies aux nouvelles opportunités, je suis vraiment enthousiasmé par l'avenir de la recherche et toutes les façons dont elle peut nous aider à donner un sens au monde", a déclaré Raghavan. Le mois dernier, Google a annoncé qu'il commencerait à afficher des faits rapides liés aux photos dans Google Images, grâce à l'IA. À partir de l'anglais, aux États-Unis, les utilisateurs qui recherchent des images sur leur mobile pourront voir des informations provenant du Knowledge Graph de Google - la base de données de milliards de faits - y compris des personnes, des lieux ou des éléments liés à des photos spécifiques. Google a également révélé récemment qu'il utilisait l'IA et des techniques d'apprentissage automatique pour détecter plus rapidement les informations de dernière minute concernant les catastrophes naturelles et autres crises. Dans un développement connexe, Google a déclaré avoir lancé une mise à jour utilisant des modèles de langage pour améliorer la correspondance entre les articles d'actualité et les sources de vérification des faits disponibles. En 2019, Google a partagé ses efforts pour résoudre les ambiguïtés des requêtes avec une technique appelée BERT (Bidirectional Encoder Representations from Transformers). BERT, qui a émergé des recherches du géant technologique sur les Transformers, oblige les modèles à prendre en compte le contexte d'un mot en examinant les mots qui le précèdent et le suivent. Selon Google, BERT a permis à Google Search de mieux comprendre 10 % des requêtes en anglais aux États-Unis, en particulier les recherches plus longues et plus conversationnelles où des prépositions comme "for" et "to" informent le sens. Selon Google, BERT est désormais utilisé dans toutes les recherches en anglais et est déployé dans de nombreuses langues, notamment l'espagnol, le portugais, l'hindi, l'arabe et l'allemand. Suivez ce lien pour voir plus de détails sur les méthodes d’apprentissage automatique de Google.

More Related