Web-Scraping : méthodes d'extraction de données sur le web

 
  3 jours       2110       Avancé    

  Prochaines sessions et informations pratiques

Objectifs de la formation

Acquérir les notions théoriques et pratiques nécessaires à la mise en œuvre des techniques d’acquisition automatisées de données sur le web.


Prérequis

Connaissances de base en traitement de données, programmation (idéalement en Python), notions de HTTP, HTML, CSS, XML, JSON, XPath, CSS selectors, regex.


Public visé

Data analysts, data scientists.


Programme détaillé

La formation se concentre sur les méthodes d’extraction de données structurées ou semi-structurées depuis une page web (“web scraping”) ou une interface de programmation. Chaque méthode fait l’objet d’une présentation théorique et d’exemples pratiques de programmation. La formation nécessite une connaissance de base en programmation.

Les droits d’utilisation des données disponibles sur le web

Présentation des concepts de licences sur les données, du mouvement OpenData et des principales licences.

Récupérer des données fournies par une interface de programmation (API)

Définition d’une API, requêtage, exemples pratiques avec Python et R.

Récupérer des données d’un site web

Définition du web scraping, parcours de pages web, exemples pratiques avec Python et R, utilisation des Apis Web (Google, Twitter…)

Exemples d’outils pour faciliter le web scraping

Outils pour extraire depuis des sites statiques ou sites fortement dynamiques (ajax): Scrapy, PhantomJS, etc.

Problèmes avancés d’extractions de données

Ordonnancement, proxy, authentification, erreurs HTTP.


Les principales utilisations du web-scraping

 

Le web scraping, également connu sous le nom d’extraction de données web, est le processus d’automatisation de l’extraction d’informations à partir de sites web. Il permet de collecter des données structurées à partir de pages web et de les transformer en formats exploitables pour l’analyse et d’autres utilisations.

Voici quelques utilisations courantes du web scraping :

  • Collecte de données : Le web scraping permet de collecter des données à grande échelle à partir de sites web. Cela peut inclure des informations telles que des prix de produits, des avis clients, des données financières, des listes d’entreprises, des données météorologiques, etc. Ces données peuvent être utilisées pour la recherche, l’analyse de marché, la prise de décision commerciale ou d’autres applications.

  • Suivi des prix et de la concurrence : Le web scraping est souvent utilisé pour surveiller les prix des produits sur des sites de commerce électronique. Cela permet de suivre les variations de prix, d’identifier les offres concurrentielles et de prendre des décisions d’achat ou de tarification. Il peut également être utilisé pour surveiller les activités de la concurrence, telles que les lancements de produits ou les changements de stratégie.

  • Veille et analyse de marché : Le web scraping est utilisé pour collecter des informations sur les tendances du marché, les actualités, les opinions des clients et d’autres données pertinentes. Cela permet de suivre les développements du marché, d’analyser les comportements des consommateurs, de surveiller les réactions aux produits et services, et de prendre des décisions stratégiques basées sur des informations actuelles.

  • Extraction de contenu : Le web scraping permet d’extraire des articles, des blogs, des commentaires, des avis ou d’autres types de contenu à partir de sites web. Cela peut être utile pour agréger des informations à partir de plusieurs sources, créer des bases de données de connaissances, générer du contenu pour des applications, ou effectuer des analyses textuelles.

  • Recherche scientifique et académique : Le web scraping est utilisé dans la recherche scientifique pour collecter des données provenant de publications, de bases de données en ligne, de sites gouvernementaux, etc. Cela permet aux chercheurs d’accéder à un large éventail de données pour leurs études, leurs analyses et leurs modèles.