importxml importhtml importfeed tutorial deuxio

ImportHTML, ImportFeed & ImportXML: Extraire des données web directement dans Google Spreadsheet

Scraper, selon wikipedia c’est « extraire du contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte ». Extraire des données c’est déjà bien, mais dans un tableau google spreadsheet, c’est encore mieux.

Pourquoi Scraper des données disponibles sur le web ?

Pour 2 raisons principales:

  1. un simple copier coller ne conserve pas toujours la mise en forme
  2. en scrapant les données, on peut actualiser très facilement la récupération de données issues de multiples sources

Quelques exemples d’utilisations:

  • Extraire les résultats de recherche de Google ou Twitter pour découvrir les concurrents sur son domaine, ou juste mesurer son positionnement
  • Extraire un tableau depuis wikipedia pour en exploiter les données
  • Extraire la liste des annonces (titre, prix, etc.) d’un résultat de recherche sur leboncoin
  • Traduire ses flux RSS en français
  • etc.

Google met à disposition 3 fonctions très pratiques pour executer ces taches directement dans google spreadsheet: ImportHtmlImportFeed & ImportXML.

  1. ImportHtml: importer facilement des tableaux et des listes
  2. ImportFeed: importer des flux RSS dans Google spreadsheet
  3. ImportXml: importer à peu près n’importe quoi dans google spreadsheet
  4. Télécharger les exemples mentionnés dans l’article

ImportHtml: importer facilement des tableaux et des listes

La fonction ImportHtml est la plus facile à prendre en main: aucune compétence technique n’est nécessaire. Vous pouvez importer 2 types de données depuis n’importe quelle page internet:

  1. des tableaux (balises html « table »)
  2. des listes (balises html « li »)

Utilisation de la fonction ImportHtml de Google Spreadsheet

Syntaxe:

=IMPORTHTML(url, requête, index)
  • url: l’adresse de la page avec le http (ou une référence à une cellule contenant l’url)
  • requête: table ou list, selon que vous vouliez extraire un tableau ou une liste
  • index: numéro du tableau de la page (1 si il s’agit du 1er tableau, 2 si c’est le second, etc.)

Extraire des données Wikipedia dans Google Spreadsheet avec ImportHtml

Exemple d’utilisation:

=IMPORTHTML("http://fr.wikipedia.org/wiki/Parts_de_marché_des_navigateurs_web","table",1)    

importhtml google spreadsheet exemple tutorial

Essayez par vous même !

Pour plus d’information, reportez vous à la documentation Google Spreadsheet ImportHtml

ImportFeed: importer des flux RSS dans Google spreadsheet

La fonction ImportFeed est à peine plus compliquée. Elle permet d’importer un flux RSS dans spreadsheet en spécifiant le type d’info qu’on veut récupérer. La seule complication ici est qu’un flux RSS contient beaucoup de type d’information:

  • infos relatives au flux lui même: titre, description, auteur, url
  • infos relatives aux items du flux: titre, résumé, url, date de création

Utilisation de la fonction ImportFeed de Google Spreadsheet

Syntaxe:

=IMPORTFEED(url, requête*, en_têtes*, nombre_éléments*)

importfeed google spreadsheet exemple tutorial

*champs optionnels. Seule l’url est obligatoire. Si aucun autre paramètre n’est indiqué, spreadsheet importera l’ensemble du flux, 1 type d’info par colonne.

Pour paramétrer un peu plus tout ça & ne récupérer que les infos qui vous intéressent vraiment, voici le détails des champs à passer:

  • url: l’adresse du flux RSS, avec le http (ou une référence à une cellule contenant l’url)
  • requête: vous pouvez récupérer l’ensemble du flux (valeur par défaut) ou juste une partie de celui-ci:
    • feed: retourne l’ensemble des informations concernant le flux (titre, description, auteur et url
      • feed title: retourne le titre du flux
      • feed description: retourne la description du flux
      • feed author: retourne l’auteur du flux
      • feed url: retourne l’url du flux
    • items (valeur par défaut): retourne l’ensemble des champs des billets inclus dans le flux RSS
      • items title: retourne le titre des billets inclus dans le flux
      • items summary: retourne le résumé (contenu sans images ni liens) des billets inclus dans le flux
      • items url: retourne les urls des billets inclus dans le flux
      • items created: retourne la date des billets inclus dans le flux
  • en tête: TRUE (valeur par défaut) pour afficher les en tête de colonnes ou FALSE si vous ne souhaitez pas les afficher
  • nombre_éléments: par défaut, l’ensemble du flux sera retourné, amis si vous ne voulez en récupérer qu’un certain nombre, indiquez le ici (ex. 10)

Créer un lecteur de flux RSS dans Google spreadhseet

Exemple d’utilisation:

IMPORTHTML("http://fr.wikipedia.org/wiki/Parts_de_marché_des_navigateurs_web","table",1)    

Essayez par vous même !

Pour plus d’information, reportez vous à la documentation Google Spreadsheet ImportFeed.

Traduire ses flux RSS dans Google spreadhseet

Bonus, parce que lire ses flux dans Google Spreadsheet, ça ne sert pas à grand chose seul…par contre, une fois qu’on les a dans la feuille de calcul, on peut les traduire facilement: il suffit de créer un nouvel onglet et d’utiliser la fonction « Translate » inclus dans google spreadsheet :)

Exemple d’utilisation:

=GoogleTranslate("Il fait chaud et beau";"fr"; "en")

googletranslate google spreadsheet exemple tutorial

Voila. Simplissime..

ImportXml: importer à peu près n’importe quoi dans google spreadsheet

La fonction ImportXml est la plus puissante: elle permet d’extraire absolument n’importe quoi d’une page web. Par contre, elle va demander de plus grande compétences techniques. Pas besoin de savoir développer, mais il va connaitre la notion de Xpath, et comment déterminer celui de l’élément à extraire de la page web.

Avec la fonction ImportXML, la seule limitation (à ma connaissance) est liée à l’execution de javascripts sur la page: vous ne pourrez extraire des données que si elles sont affichées dans la page avant l’execution de javascript. Ce n’est pas un problème pour la plupart des sites internet, mais dans certains cas, mais pourra l’être si par exemple vous cherchez à extraire une donnée qui nécessite un clic sur un bouton pour être affichée, etc.

Utilisation de la fonction ImportXml de Google Spreadsheet

Syntaxe:

=IMPORTXML(url, xpath)

importxml google spreadsheet exemple tutorial

  • url: l’adresse de la page d’où extraire les données (avec le http)
  • xpath: le xpath de/des éléments à extraire de la page.

NB: Il est possible d’extraire plusieurs xpath en une seule requête en les séparant par des « pipes » (|). Par exemple:

=IMPORTXML("http://www.twitter.com/search?q=growth hacking"; "user xpath | twitter account xpath")

A priori, rien de très compliqué, mais récupérer le xpath peut parfois être un casse tête…

Qu’est ce qu’un Xpath ?

C’est la partie la plus difficile à maitriser concernant cette fonction. Si vous prenez le temps de bien comprendre comment les construire par contre, vous aurez un outils extrêmement puissant…

Récupérer le xpath d’un élément isolé d’une page est relativement facile, je vous explique juste en dessous. Par contre, pour récupérer une liste d’éléments (résultats de recherche, etc.), vous devrez forcément le modifier « à la main » et donc comprendre comment les construire. Pour commencer, l’article Xpath sur Wikipedia est une excellente 1ère approche.

En résumé, le Xpath est le chemin unique d’un élément dans un document formatté (xml, html…). Par exemple, dans le code suivant:

  
    Brice Maurin
    @deuxio
    http://deux.io
  
  
    Antoine Richard
    @doublesensparis
    http://www.doublesens.fr
  
  
  Pierre le Ny
  @labelgum
  http://www.label-gum.com
  


Pour récupérer dans un tableau les nom, twitter id & site web de la liste, je pourrais utiliser les fonctions suivante:

=IMPORTXML("http://www.domaine.com/nomdelapage"; "//*[@id='name']")
=IMPORTXML("http://www.domaine.com/nomdelapage"; "//*[@id='twitter-id']")
=IMPORTXML("http://www.domaine.com/nomdelapage"; "//*[@id='website']")

ou en récupérant tout en 1 fois (dans une seule colonne par contre…) grace à la fonction suivante:

=IMPORTXML("http://www.domaine.com/nomdelapage"; "//*[@id='name'] | //*[@id='twitter-id'] | //*[@id='website']")

Passons sur le nom de la page. Le paramètre xPath passé est ici composé de 3 xPath différents, séparés par des « pipes » ( | ou Alt+Shit+L sur mac) pour indiquer à google spreadsheet que je souhaite récupérer plusieurs champs en 1 seul appel à la fonction importxml.

Je récupère donc le nom en recherchant partout dans le document (//) le champs dont l’id est « name » ([@id= »name »]). De la même manière, je lui indique les 2 autres champs qu’il doit aller récupérer (//[@id=’twitter-id’] et //*[@id=’website’]).

NB: Lorsque vous souhaitez extraire des id ou des class en les nommant, pensez à les inclure avec des single quotes, pour éviter d’indiquer (avec des doubles) la fin de la fonction à google spreadsheet.

Récupérer le Xpath d’un élément d’une page web directement dans Chrome

Sélectionnez l’élément à extraire dans la page, puis faites un clic droit. Choisissez « Procéder à l’inspection de l’élément ». Les outils de développement Chrome vont s’afficher, en surlignant dans le code la ligne que vous avez sélectionné. Faites un clic droit (dans le code), sur cet élément et choisissez « Copy Xpath »:

extract xpath in google chrome tutorial

Coller ce Xpath dans votre formule, et Google extraira l’élément de la page dans la feuille de calcul.

Quelques exemples de xPath bien pratiques ;)

Tous les exemples sont contenus dans le Google Spreadsheet contenant les exemples mentionnés dans ce tutoriel.

Récupérer les titres & urls des résultats de recherche de google

Exemple de recherche sur Googlehttps://www.google.fr/search?q=growth+hacking
Titre de la page: //h3[@class=’r’]
Url de la page: //h3[@class=’r’][email protected]

Exemple d’utilisation de la fonction ImportXml pour extraire des données depuis une recherche Google

Dans la 1ère colonne, entrez la formule suivante permettant de récupérer le titre des pages de résultat:

=IMPORTXML("https://www.google.fr/search?pws=0&q=growth hacking"; "//h3[@class='r']")

Le début de l’url google est standard, mais j’y ai ajouté le paramètre « pws=0″ qui permet de faire une recherche non personnalisée, c’est à dire une recherche qui ne prend pas en compte vos recherches précédentes & vos paramètres google personnels.

Dans la colonne suivante, entrez la formule suivante permettant de récupérer les urls des pages de résultat:

=IMPORTXML("https://www.google.fr/search?pws=0&q=growth hacking"; "//h3[@class='r'][email protected]")

Vous remarquerez que google ne retourne pas directement les urls des pages de résultats, mais une adresse lui permettant de tracker tous les clics sur les liens. L’url ressemble à ça:

/url?q={url de la page}&sa={un code qui rend le clic unique, et donc reliable à une personne unique}

Pour obtenir l’url « propre », nous allons l’extraire à l’aide de la fonction « RegExExtract ». Entrez donc dans la 3e colonne la formule suivante:

=REGEXEXTRACT({cellule contenant l'url encryptée};"\/url\?q=(.+)&sa")

Vous obtiendrez une belle url, bien propre et non suivie :)

Essayez par vous même !

Récupérer les noms d’utilisateurs / url du tweet d’une recherche twitter

Exemple de recherche sur Twitter: https://twitter.com/search?q=growth hacking&mode=news (le &mode=news sert à n’afficher que les news, pas les recommandations de users)
Nom d’utilisateur: //[contains(@class, ‘fullname’)]
Compte Twitter: //
[contains(@class, ‘username’)]/b
Url du Tweet: //*[contains(@class, ‘details’)][email protected]

Exemple d’utilisation de la fonction importxml pour extraire des données depuis une recherche twitter

Dans 3 colonnes, copiez les 3 formules suivantes:

=IMPORTXML("https://twitter.com/search?q=growth hacking&mode=news"; "//*[contains(@class, 'fullname')]")
=IMPORTXML("https://twitter.com/search?q=growth hacking&mode=news"; "//*[contains(@class, 'username')]/b")
=IMPORTXML("https://twitter.com/search?q=growth hacking&mode=news"; "//*[contains(@class, 'details')][email protected]")

Ce qui nous donne un tableau comme celui ci:

fullname twitter name twitter url
Walter Adamson adamson /adamson/status/464728522934996992
Jeff Rajeck JRajeck /JRajeck/status/464646011399720960
buzzr buzzrapp /buzzrapp/status/464467218664001536
Scott Gattis scottgattis /scottgattis/status/463768944369606656

Essayez par vous même !

Exemples mentionnés dans ce tutorial

Testez par vous même les fonctions importXml, importHtml, importFeed de google spreadsheet grâce à notre feuille de calcul.

Vous y trouverez les exemples suivants:

  • importHtml: Extraire un tableau d’une page wikipedia
  • importHtml: Extraire le calendrier des séries de la semaine
  • importFeed: Créer un lecteur de flux RSS dans Google spreadhseet
  • importFeed + Googletranslate: Traduire ses flux RSS dans Google spreadhseet
  • importXml: faire une recherche GOOGLE depuis Google spreadsheet
  • importXml: faire une recherche TWITTER depuis Google spreadsheet

Les limitations des fonctions import de google spreadsheet

La limitation la plus importante est que l’on ne peut pas utiliser plus de 50 fonctions import(Xml/Html/Feed) par feuille de calcul. Pour passer outre cette limitation, 2 solutions:

  • utiliser des « pipes » (|) entre les xpath pour grouper plusieurs importXml en 1 seul appel
  • utiliser plusieurs feuilles de calcul :(
  • utiliser cette méthode mentionnée sur quora

[EDIT: Janvier 2015] C’est fini ! Google vient de lever sa limitation :) On peut maintenant scraper en illimité !! Yeah !

Fondateur de DEUX•IO, Agence de Conseil en Marketing pour Startup / Growth Marketing. Ancien marketeur chez Musiwave, Xbox & Zune. Geek.

38 réponses à “ImportHTML, ImportFeed & ImportXML: Extraire des données web directement dans Google Spreadsheet

    1. Salut Julien,
      Comme tu le constateras en faisant une recherche sur twitter, la 1ère page ne chargent qu’un nombre limité de résultat (environ 10, c’est variable), le reste des résultats étant chargé lorsque tu scrolles.

      Les fonctions « import » de google spreadsheet se bornent à charger la page, et extraire les données…donc tu ne récupéreras que les 1er résultats. Pour en obtenir plus, 2 solutions:
      1. utiliser l’API twitter
      2. utiliser un service tiers qui liste plus de résultats (et scraper ce service tiers)

      Mais si ton but est de stocker l’ensemble des tweets parlant d’un sujet, tu devrais essayer http://mashe.hawksey.info/2013/02/twitter-archive-tagsv5/ qui va stocker tous les tweets (futurs) parlant d’un sujet. Par contre la, c’est quasiment un logiciel, plus une simple fonction google spreadsheet ;)

      1. Salut Brice,

        C’est bien ce que j’avais remarqué avec la recherche. J’esperais que t’avais un astuce pour aller plus loins. Dommage. Je vais fair avec le API. Merci pour ton aide!

  1. Bonjour,
    Je recherche une solution qui pourrait me simplifier la tâche
    Je vous explique afin de réaliser un mailing, j’ai besoin d’extraire les mails des exposants au SIAL
    Pour avoir la liste des exposants, il faut allez sur le site internet du salon, accéder à la liste des exposants en haut à droite de la page d’accueil : http://www.sialparis.fr/Liste-des-exposants-du-SIAL-2014
    j’arrive sur cette page et je vais dans la recherche avancée je choisis les secteurs d’activités et les pays qui m’intéressent et j’obtiens une liste de résultats où s’affichent le nom de l’exposant et une icône pour contacter par mail l’entreprise
    J’ai besoin de récupérer ces résultats au minimum les mails, comment faire mis à part copier/coller
    Merci d’avance pour vos réponses
    Bien cordialement,

    1. Bonjour Sabrina,

      C’est tout à fait faisable, mais il faut décomposer le problème en 3 étapes:
      1. Trouver l’adresse de la recherche avancée
      Pour ca, sous chrome, ouvrez l’inspecteur d’élement puis l’onglet « Network ». Choisissez les paramètres qui vous intéresse, puis repérer et copier l’adresse complète de la page listant les résultats.

      2. Extraire les résultats
      Dan un Google spreadsheet, ajoutez l’url trouvée, puis identifiez les xpath de la compagnie et du lien avec l’email du contact.

      3. Extraire l’email du lien
      En extrayant tout le lien, on extrait également la mention « mailto: » qui ouvre votre boite mail, et d’autres éléments moins pertinents. Il vous faut ici extraire uniquement le mail. Pour ca, utilisez la fonction google spreadsheet « regexextract » qui va appliquer une expression régulière pour extraire une info d’une cellule. L’expression régulière la plus simple pour trouver un email est « \w+@[\w.-]+|\{(?:\w+, *)+\w+\}@[\w.-]+ ».

      Voici le résultat: http://bit.ly/1CG5UZC

      N’hésitez pas à partager ce post sur Facebook & Twitter ;)

  2. FORMIDABLE ,

    par contre, je bloque dès la première étape .. je réalise ma requête sous Google chrome, ensuite je clique droit pour ouvrir l’inspecteur d’éléments puis je regarde l’onglet network, mais il n’y a rien dedans …

  3. Désolée de vous déranger encore … en fait j’ai bien réussi en actualisant la page a avoir des éléments mais où chercher cette fameuse adresse complète ? je vois bien que de nombreux éléments s’affichent mais lequel choisir ?

  4. Juste un dernier message pour vous dire que j’ai compris et réussi à retrouver mes petits ! je vous remercie énormément car vous m’avez permis de gagner un temps considérable !!!! il me reste à trouver comment contourner le problème des 100 résultats et plus et ça sera parfait, mais même si je ne trouve pas, ça n’est pas grave!! merci encore

  5. j’ai quand même une dernière petite question : comment avez vous fait pour trouver le xpath de l’email du contact ? car dans mon exemple, j’ai beau sélectionner l’adresse mail et cliquer sur examiner l’élément et ensuite sur copy xpath, ça ne me donne pas du tout la même expression que vous. je vous demande ça car j’ai souvent ce genre de requête à effectuer donc il faut que j’arrive à le refaire toute seule ^^ merci encore pour votre aide

  6. Bonjour Brice,

    Une petite question, je tente d’extraire uniquement lors du resultats Google mais je bute lorsque j’ai copié la div avec Xpath.

    =XPathOnUrl(« https://www.google.fr/search?q=sport&pws=0″; »//div[@id=’resultStats’] »;)

    En effet j’obtiens ceci  » Environ 143 000 000 résultats  » or je voudrais avoir seulement le nombre 143 000 000 dans ma cellule Excel.

    Merci d’avance

    S0u

    1. Hello SOu,
      Avec le xpath, tu peux extraire un « noeud » depuis un document. Ici, tu as bien extraits le noeud contenant le nombre de résultat, mais il inclut également un texte. Tu ne pourras pas aller plus proche.

      Pour atteindre la solution que tu recherches, tu dois extraire les chiffres de cette chaine de caractere. Pour ca, tu dois utiliser l’expression régulière suivante: ((?:\d+ )+)

      Tu utilises SEOTools for Excel, je ne connais pas bien ses fonctions, mais sur Google Spreadsheet, tu n’auras qu’à faire:
      =REGEXEXTRACT(IMPORTXML(G1; »//div[@id=’resultStats’] »); »((?:\d+ )+) »)

      +

  7. Bonjour,

    merci pour le tuto.
    Je plante pour importer le contenu d’un agenda Google dans un tableau Google.
    Apparemment le XML d’un agenda Google n’est pas valide et ne s’importe pas. J’ai tenté via l’importHTML, échec également.

    Avez-vous déjà réussi la manip?

    1. Je viens de tenter d’importer un calendrier public* avec la fonction importfeed, ca passe tout seul ;)
      Dans votre cas, votre calendrier n’est il pas privé ? avez vous bien pris l’adresse au format xml ?

      Brice
      *https://www.google.com/calendar/feeds/fr.french%23holiday%40group.v.calendar.google.com/public/basic

    1. En effet, je viens de tester et leboncoin ne semble plus « scrapable » depuis google spreadsheet :'( Le site a du bloquer les ips de google doc…Pour tracker une recherche, vous pouvez toutefois utiliser importrss et l’outils http://starseller.fr/ (qui génère un flux rss depuis une page leboncoin).

  8. Je voudrais savoir si c’est possible par exemple de scrapper sur plusieurs pages. Je m’explique : Je voudrais importer les données H2 d’un blog (les titres+lien). J’arrive facilement à importer la première page du blog mais pour le reste des pages on fait comment ?

    Merci pour votre tuto

    1. Salut, oui tu peux. Le plus simple serait selon moi de faire:
      – Trouve le feed RSS du blog, importe l’url (uniquement ca, ca suffira) de chaque article via importrss
      – Dans la colonne à coté de l’url des articles, utilises importxml pour extraire les données que tu veux.

      easy, pas vrai ?

  9. Hello Brice,

    Merci pour le tuto : top !

    – J’ai essayé la méthode sur une page reprenant mes contacts LinkedIn dont je veux extraire le « Prenom Nom »
    – L’Xpath que j’ai extrait sur LinkedIn en inspectant l’élément est : « //*[@id= »contact-list-container »]/ul/li[1]/div[3]/h3/a »

    La fonction de marche pas, j’ai beau me creuser la tête et essayer plein de modifications je suis bloqué…
    Un petit coup de main ne serait pas de trop ;-)

    Merci !
    Adrien

    1. Salut Adrien. Content que tu aies apprécié.

      Pour avoir accès à tes contacts, tu dois être loggé. Quand Google Spreadsheet essaie d’accèder à la page, il arrive en fait sur la page de login de linkedin…Pour t’en rendre compte, affiche le titre (//title) de la page que tu essaies d’extraire. Dommage ;)

      Avec Google Spreadsheet, tu ne pourras pas accèder aux pages ou tu dois t’enregistrer. Pour ça, il te faudra un scraper plus puissant (mais plus compliqué aussi) comme Import.io ou – encore mieux – casper.js.

  10. Bonjour Brice,

    je souhaite extraire une liste d’exposants (industrie-expo.com/exposant-liste-exposants/), la problématique est que la liste est interactive et que pour arriver à extraire les coordonnées, je dois cliquer sur chaque nom d’exposants. J’ai essayé avec les aides mentionnées ci-dessus mais je n’arrive pas à extraire ces coordonnées de chaque exposants (dans toutes les pages). Existe t-il une solution dans ce cas là ?

    Merci de ton aide.

    Céline

    1. Bonjour Céline,
      Google Spreadsheet ne peut pas simuler de clic, malheureusement. Pour ça, tu devras utiliser des outils tels qu’imacros (http://imacros.net/) ou casper.js (mais il faudra savoir coder ;)).

      Dans ton cas, pourquoi ne pas extraire la fiche au format csv ? il y a un export possible apparemment.

      Brice

  11. Bonjour Brice, je suis toute nouvelle dans le growth hacking. Je cherche a creer une requete qui pourra automatiquement extraire des emails de profiles sur viadeo et linked suite a une recherche sur google. J’ai telecharge les fichiers attaches en exemples notamment importxml mais j’avoue que je ne sais pas trop quoi faire d’autant plus que j’ai l’impression qu’il y a des erreurs. Pouvez-vous m’aider? Merci bcp par avance.

    1. Bonjour Steph,
      Cette technique permet d’extraire les données visibles d’une page publique. Sur viadeo / linkedin, les emails ne sont évidemment pas visibles au public, ce n’est donc pas possible ;)

  12. Bonjour Brice
    L’importXML des résultats de recherche Google ne fonctionne plus ? J’essaie à partir de la feuille mise à dispo et je ne reçois aucun résultats.
    Merci pour vos tutos

    1. En effet, il semble que google ait bloqué ses propres IPs (celles de google spreadsheet) ! Comique comme situation…Ca fonctionne tjs sur bing par contre, j’ai modifié ca dans la feuille de calcul. Merci de m’avoir prévenu ;)

  13. bonjour Brice

    je souhaite extraire pour un usage personnel une liste de l’onglet « Returns » de ce site
    http://etfdb.com/screener/#asset-class=Equity&leveraged=false&inverse=false&active-or-passive=Passive&tableTab=returns

    j’ai mis
    =IMPORTHTML(« http://etfdb.com/screener/#asset-class=Equity&leveraged=false&inverse=false&active-or-passive=Passive&tableTab=returns », »table »,1)

    J’ai un resultat sous forme de tableau mais celui ci correspond à l’onglet « Overview »

    Peux tu me dire s’il est possible extraire cette info (onglet Returns)
    Merci de ton aide.

    Nuno

    1. Bonjour Nuno,
      Comme tu peux le constater, en cliquant sur « returns », la page charge des données dynamiquement depuis le serveur. Google Spreadsheet – en chargeant ton url – ne voit pas ce contenu dynamique mais uniquement le 1er onglet, d’ou ta situation. En analysant la requete depuis la console chrome (dans network), tu peux identifier que l’appel dynamique fait au serveur retourne du json directement exploitable :) –> http://etfdb.com/screener-data/expenses.json/

      Tadaaa. Bingo !
      De rien.

  14. Bonjour
    je n y arrive pas du tout
    je oushaiterais extraire les annonces du bon quoi j ai tout essaye mais je n y arrive pas est ce que quelqun peut m aider?

    1. il est possible que leboncoin bloque les IP de google spreadsheet (et empeche donc de scraper ses pages). Pour vérifier, faites simplement:

      =importxml("ajouter l'url à tester ici";"//title")

      Si le titre de la page s’affiche, vous pouvez scraper. Sinon, c’est que les IPs sont bloquées.

  15. Xpath importer le nombre de vue de youtube vers google sheets

    Bonjour à tous
    Je souhaite importer le nombre de vue d’une page youtube vers un document google sheets
    Et en lisant cet article très intéressant j’ai découvert qu’il existe une fonction google sheets qui permet de faire cela (la fonction en question est : IMPORTXML)
    J’essaye d’importer sur un document google sheets le nombre de vue de cette page youtube
    Et pour récupérer le xpath du nombre de vue, je procède ainsi sur google chrome. un clic droit. Je choisis « Procéder à l’inspection de l’élément ». Les outils de développement Chrome vont s’afficher, en surlignant dans le code la ligne que j’ai sélectionné.en suite je fais un clic droit (dans le code), sur cet élément et je choisie « Copy Xpath »:
    Après avoir récupéré le xpath je renseigne la fonction google sheets
    J’obtiens la fonction suivante sur google sheets

    =IMPORTXML(« https://www.youtube.com/user/TopGear/about »; »//*[@id= »browse-items-primary »]/li/div/div[3]/div/span[2]/b »)

    google sheets m’affiche erreur

    J’ai cherché et je n’ai pas trouvé l’erreur ???

    Merci pour votre aide

  16. Bonjour Brice,
    j’utilise actuellement un compte Linkedin Pro, j’effectue des recherches correspondant à des postes au sein d’entreprises (par exemple Directeur Commercial ou Responsable Export) et j’aimerais extraire les listes d’URL des profils LinkedIn correspondant aux résultats de mes recherches dans google spreadsheet (sans avoir à toutes les ouvrir et à faire un copier/coller), est ce que tu sais si c’est possible avec la fonction importxml?

    Bonne journée
    Henri

    1. Salut Henri,
      Les appels depuis Google Spreadsheet sont réalisées depuis les ip de google, donc non loggé sur linkedin.

      Par contre, il existe pléthore d’outils pour faire ce que tu demandes (payant par contre): profilehopper.com & salestools.io par exemple

Répondre à S0u Annuler la réponse.