7 Commits

Author SHA1 Message Date
Chahrazad650
cefdb94dd5 ajout : aout des tests test_cleaning.py 2026-03-03 04:18:30 +01:00
Chahrazad650
06097c257e ajout : remplacer appellation par les colonnes indicatrices 2026-03-03 03:26:58 +01:00
Chahrazad650
b0eb5df07e ajout : remplac les notes manquantes par la moyenne de l'appellation 2026-03-03 03:18:35 +01:00
Chahrazad650
5afb6e38fe ajout : moyennes des notes par appellation 2026-02-26 21:11:43 +01:00
Chahrazad650
f31de22693 Q9 suppression les lignes sans appellation 2026-02-25 03:49:36 +01:00
Chahrazad650
73c6221080 ajout de la reprise automatique du scraping dans getvins 2026-02-25 02:48:55 +01:00
Chahrazad650
99dd71989d debuger _geturlproductslist et request -erreur 403 2026-02-25 00:10:00 +01:00
13 changed files with 413 additions and 266 deletions

View File

@@ -5,41 +5,35 @@ name: Python application
on: on:
push: push:
branches: ["main"] branches: [ "main" ]
pull_request: pull_request:
branches: ["main"] branches: [ "main" ]
permissions: permissions:
contents: write contents: read
jobs: jobs:
build: build:
runs-on: ubuntu-latest runs-on: ubuntu-latest
steps: steps:
- uses: actions/checkout@v4 - uses: actions/checkout@v4
- name: Set up Python 3.10
- name: Set up Python 3.10 uses: actions/setup-python@v3
uses: actions/setup-python@v4 with:
with: python-version: "3.10"
python-version: "3.10" - name: Install dependencies
run: |
- name: install dependencies python -m pip install --upgrade pip
run: | pip install flake8 pytest
python -m pip install --upgrade pip if [ -f requirements.txt ]; then pip install -r requirements.txt; fi
pip install ".[test,doc]" - name: Lint with flake8
run: |
- name: Lint with flake8 # stop the build if there are Python syntax errors or undefined names
run: | flake8 . --count --select=E9,F63,F7,F82 --show-source --statistics
flake8 . --count --select=E9,F63,F7,F82 --show-source --statistics # exit-zero treats all errors as warnings. The GitHub editor is 127 chars wide
flake8 . --count --exit-zero --max-complexity=10 --max-line-length=127 --statistics flake8 . --count --exit-zero --max-complexity=10 --max-line-length=127 --statistics
- name: Test with pytest
- name: Test with pytest run: |
run: pytest pytest
- name: Deploy Doc
if: github.event_name == 'push' && github.ref == 'refs/heads/main'
run: |
git config user.name github-actions
git config user.email github-actions@github.com
mkdocs gh-deploy --force

106
cleaning.py Normal file
View File

@@ -0,0 +1,106 @@
#!/usr/bin/env python3
from pandas import DataFrame, to_numeric
import pandas as pd
SCORE_COLS = ["Robert", "Robinson", "Suckling"]
def display_info(df: DataFrame, name: str = "DataFrame") -> None:
"""
Affiche un résumé du DataFrame
-la taille
-types des colonnes
-valeurs manquantes
-statistiques numériques
"""
print(f"\n===== {name} =====")
print(f"Shape : {df.shape[0]} lignes × {df.shape[1]} colonnes")
print("\nTypes des colonnes :")
print(df.dtypes)
print("\nValeurs manquantes :")
print(df.isna().sum())
print("\nStatistiques numériques :")
print(df.describe().round(2))
def drop_empty_appellation(df: DataFrame) -> DataFrame:
return df.dropna(subset=["Appellation"])
def mean_score(df: DataFrame, col: str) -> DataFrame:
"""
Calcule la moyenne d'une colonne de score par appellation.
- Convertit les valeurs en numériques, en remplaçant les non-convertibles par NaN
- Calcule la moyenne par appellation
- Remplace les NaN résultants par 0
"""
tmp = df[["Appellation", col]].copy()
tmp[col] = to_numeric(tmp[col], errors="coerce")
# moyenne par appellation
means = tmp.groupby("Appellation", as_index=False)[col].mean()
means[col] = means[col].fillna(0)
means = means.rename(columns={col: f"mean_{col}"})
return means
def mean_robert(df: DataFrame) -> DataFrame:
return mean_score(df, "Robert")
def mean_robinson(df: DataFrame) -> DataFrame:
return mean_score(df, "Robinson")
def mean_suckling(df: DataFrame) -> DataFrame:
return mean_score(df, "Suckling")
def fill_missing_scores(df: DataFrame) -> DataFrame:
"""
Remplacer les notes manquantes par la moyenne
des vins de la même appellation.
"""
df_copy = df.copy()
df_copy["Appellation"] = df_copy["Appellation"].astype(str).str.strip()
for score in SCORE_COLS:
df_copy[score] = to_numeric(df_copy[score], errors="coerce")
temp_cols: list[str] = []
for score in SCORE_COLS:
mean_df = mean_score(df_copy, score)
mean_name = f"mean_{score}"
temp_cols.append(mean_name)
df_copy = df_copy.merge(mean_df, on="Appellation", how="left")
df_copy[score] = df_copy[score].fillna(df_copy[mean_name])
df_copy = df_copy.drop(columns=temp_cols)
return df_copy
def encode_appellation(df: DataFrame, column: str = "Appellation") -> DataFrame:
"""
Remplace la colonne 'Appellation' par des colonnes indicatrices
"""
df_copy = df.copy()
appellations = df_copy[column].astype(str).str.strip()
appellation_dummies = pd.get_dummies(appellations)
df_copy = df_copy.drop(columns=[column])
return df_copy.join(appellation_dummies)

View File

@@ -1 +0,0 @@
# Millesima

View File

@@ -1,3 +0,0 @@
# Scraper
::: scraper.Scraper

View File

@@ -1,4 +0,0 @@
# _ScraperData
::: scraper._ScraperData

64
main.py Executable file
View File

@@ -0,0 +1,64 @@
#!/usr/bin/env python3
from os import getcwd
from os.path import normpath, join
from sys import argv
from pandas import read_csv, DataFrame
from cleaning import (display_info,
drop_empty_appellation,
mean_robert,
mean_robinson,
mean_suckling,
fill_missing_scores,
encode_appellation)
def load_csv(filename: str) -> DataFrame:
path: str = normpath(join(getcwd(), filename))
return read_csv(path)
def save_csv(df: DataFrame, out_filename: str) -> None:
df.to_csv(out_filename, index=False)
def main() -> None:
if len(argv) != 2:
raise ValueError(f"Usage: {argv[0]} <filename.csv>")
df = load_csv(argv[1])
display_info(df, "Avant le nettoyage")
df = drop_empty_appellation(df)
save_csv(df, "donnee_clean.csv")
display_info(df, "Après nettoyage d'appellations manquantes")
#la moyenne des notes des vins pour chaque appellation
robert_means = mean_robert(df)
save_csv(robert_means, "mean_robert_by_appellation.csv")
display_info(robert_means, "Moyennes Robert par appellation")
robinson_means = mean_robinson(df)
save_csv(robinson_means, "mean_robinson_by_appellation.csv")
display_info(robinson_means, "Moyennes Robinson par appellation")
suckling_means = mean_suckling(df)
save_csv(suckling_means, "mean_suckling_by_appellation.csv")
display_info(suckling_means, "Moyennes Suckling par appellation")
df_missing_scores = fill_missing_scores(df)
save_csv(df_missing_scores, "donnee_filled.csv")
display_info(df_missing_scores, "Après remplissage des notes manquantes par la moyenne de l'appellation")
df_ready = encode_appellation(df_missing_scores)
save_csv(df_ready, "donnee_ready.csv")
display_info(df_ready, "Après remplacer la colonne 'Appellation' par des colonnes indicatrices")
if __name__ == "__main__":
try:
main()
except Exception as e:
print(f"ERREUR: {e}")

View File

@@ -1,14 +0,0 @@
site_name: "Projet Millesima S6"
theme:
name: "material"
plugins:
- search
- mkdocstrings
markdown_extensions:
- admonition
- pymdownx.details
- pymdownx.superfences
- pymdownx.tabbed

View File

@@ -1,12 +0,0 @@
[project]
name = "projet-millesima-s6"
version = "0.1.0"
dependencies = ["requests==2.32.5", "beautifulsoup4==4.14.3", "pandas==2.3.3", "tqdm==4.67.3"]
[project.optional-dependencies]
test = ["pytest==8.4.2", "requests-mock==1.12.1", "flake8==7.3.0"]
doc = ["mkdocs<2.0.0", "mkdocs-material==9.6.23", "mkdocstrings[python]"]
[build-system]
requires = ["setuptools", "wheel"]
build-backend = "setuptools.build_meta"

6
requirements.txt Normal file
View File

@@ -0,0 +1,6 @@
requests==2.32.5
requests-mock==1.12.1
beautifulsoup4==4.14.3
pytest==8.4.2
requests-mock==1.12.1
pandas==2.3.3

View File

@@ -1,78 +1,32 @@
#!/usr/bin/env python3 #!/usr/bin/env python3
from collections import OrderedDict
from io import SEEK_END, SEEK_SET, BufferedWriter
from json import JSONDecodeError, loads
from os import makedirs
from os.path import dirname, exists, join, normpath, realpath
from pickle import UnpicklingError, dump, load
from sys import argv from sys import argv
from tqdm.std import tqdm from typing import cast
from typing import Any, Callable, Literal, TypeVar, cast
from bs4 import BeautifulSoup, Tag
from requests import HTTPError, Response, Session from requests import HTTPError, Response, Session
from requests.exceptions import Timeout, ConnectionError
_dir: str = dirname(realpath(__name__)) import time
from bs4 import BeautifulSoup, Tag
T = TypeVar("T") from collections import OrderedDict
from json import JSONDecodeError, loads
from pathlib import Path
def _getcache(mode: Literal["rb", "wb"], fn: Callable[[Any], T]) -> T | None:
"""_summary_
Returns:
_type_: _description_
"""
cache_dirname = normpath(join(_dir, ".cache"))
save_path = normpath(join(cache_dirname, "save"))
if not exists(cache_dirname):
makedirs(cache_dirname)
try:
with open(save_path, mode) as f:
return fn(f)
except (FileNotFoundError, EOFError, UnpicklingError):
return None
def savestate(data: tuple[int, set[str]]) -> None:
def save(f: BufferedWriter) -> None:
_ = f.seek(0)
_ = f.truncate()
dump(data, f)
f.flush()
_getcache("wb", save)
def loadstate() -> tuple[int, set[str]] | None:
return _getcache("rb", lambda f: load(f))
class _ScraperData: class _ScraperData:
""" """_summary_"""
Conteneur de données spécialisé pour extraire les informations des dictionnaires JSON.
Cette classe agit comme une interface simplifiée au-dessus du dictionnaire brut
renvoyé par la balise __NEXT_DATA__ du site Millesima.
"""
def __init__(self, data: dict[str, object]) -> None: def __init__(self, data: dict[str, object]) -> None:
""" """_summary_
Initialise le conteneur avec un dictionnaire de données.
Args: Args:
data (dict[str, object]): Le dictionnaire JSON brut extrait de la page. data (dict[str, object]): _description_
""" """
self._data: dict[str, object] = data self._data: dict[str, object] = data
def _getcontent(self) -> dict[str, object] | None: def _getcontent(self) -> dict[str, object] | None:
""" """_summary_
Navigue dans l'arborescence Redux pour atteindre le contenu du produit.
Returns: Returns:
dict[str, object] | None: Le dictionnaire du produit ou None si la structure diffère. dict[str, object]: _description_
""" """
current_data: dict[str, object] = self._data current_data: dict[str, object] = self._data
for key in ["initialReduxState", "product", "content"]: for key in ["initialReduxState", "product", "content"]:
@@ -84,11 +38,10 @@ class _ScraperData:
return current_data return current_data
def _getattributes(self) -> dict[str, object] | None: def _getattributes(self) -> dict[str, object] | None:
""" """_summary_
Extrait les attributs techniques (notes, appellations, etc.) du produit.
Returns: Returns:
dict[str, object] | None: Les attributs du vin ou None. dict[str, object]: _description_
""" """
current_data: object = self._getcontent() current_data: object = self._getcontent()
if current_data is None: if current_data is None:
@@ -97,13 +50,9 @@ class _ScraperData:
def prix(self) -> float | None: def prix(self) -> float | None:
""" """
Calcule le prix unitaire d'une bouteille (standardisée à 75cl). Retourne le prix unitaire d'une bouteille (75cl).
Le site vend souvent par caisses (6, 12 bouteilles) ou formats (Magnum). Si aucun prix n'est disponible, retourne None.
Cette méthode normalise le prix pour obtenir celui d'une seule unité.
Returns:
float | None: Le prix calculé arrondi à 2 décimales, ou None.
""" """
content = self._getcontent() content = self._getcontent()
@@ -145,13 +94,13 @@ class _ScraperData:
return prix_calcule return prix_calcule
def appellation(self) -> str | None: def appellation(self) -> str | None:
""" """_summary_
Extrait le nom de l'appellation du vin.
Returns: Returns:
str | None: Le nom (ex: 'Pauillac') ou None. str: _description_
""" """
attrs: dict[str, object] | None = self._getattributes() attrs: dict[str, object] | None = self._getattributes()
if attrs is not None: if attrs is not None:
app_dict: object | None = attrs.get("appellation") app_dict: object | None = attrs.get("appellation")
if isinstance(app_dict, dict): if isinstance(app_dict, dict):
@@ -159,16 +108,13 @@ class _ScraperData:
return None return None
def _getcritiques(self, name: str) -> str | None: def _getcritiques(self, name: str) -> str | None:
""" """_summary_
Méthode générique pour parser les notes des critiques (Parker, Suckling, etc.).
Gère les notes simples ("95") et les plages de notes ("95-97") en faisant la moyenne.
Args: Args:
name (str): La clé de l'attribut dans le JSON (ex: 'note_rp'). name (str): _description_
Returns: Returns:
str | None: La note formatée en chaîne de caractères ou None. str | None: _description_
""" """
current_value: dict[str, object] | None = self._getattributes() current_value: dict[str, object] | None = self._getattributes()
@@ -187,27 +133,21 @@ class _ScraperData:
return None return None
def parker(self) -> str | None: def parker(self) -> str | None:
"""Note Robert Parker."""
return self._getcritiques("note_rp") return self._getcritiques("note_rp")
def robinson(self) -> str | None: def robinson(self) -> str | None:
"""Note Jancis Robinson."""
return self._getcritiques("note_jr") return self._getcritiques("note_jr")
def suckling(self) -> str | None: def suckling(self) -> str | None:
"""Note James Suckling."""
return self._getcritiques("note_js") return self._getcritiques("note_js")
def getdata(self) -> dict[str, object]: def getdata(self) -> dict[str, object]:
"""Retourne le dictionnaire de données complet."""
return self._data return self._data
def informations(self) -> str: def informations(self) -> str:
""" """
Agrège les données clés pour l'export CSV. Retourne toutes les informations sous la forme :
"Appelation,Parker,J.Robinson,J.Suckling,Prix"
Returns:
str: Ligne formatée : "Appellation,Parker,Robinson,Suckling,Prix".
""" """
appellation = self.appellation() appellation = self.appellation()
@@ -221,38 +161,27 @@ class _ScraperData:
class Scraper: class Scraper:
""" """
Client HTTP optimisé pour le scraping de millesima.fr. Scraper est une classe qui permet de gerer
de façon dynamique des requetes uniquement
Gère la session persistante, les headers de navigation et un cache double sur le serveur https de Millesima
pour optimiser les performances et la discrétion.
""" """
def __init__(self) -> None: def __init__(self) -> None:
""" """
Initialise l'infrastructure de navigation: Initialise la session de scraping.
- créer une session pour éviter de faire un handshake pour chaque requête
- ajout d'un header pour éviter le blocage de l'accès au site
- ajout d'un système de cache
""" """
self._url: str = "https://www.millesima.fr/" self._url: str = "https://www.millesima.fr/"
# Très utile pour éviter de renvoyer toujours les mêmes handshake # Très utile pour éviter de renvoyer toujours les mêmes handshake
# TCP et d'avoir toujours une connexion constante avec le server # TCP et d'avoir toujours une connexion constante avec le server
self._session: Session = Session() self._session: Session = Session()
# Crée une "fausse carte d'identité" pour éviter que le site nous self._session.headers.update({
# bloque car on serait des robots "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) "
self._session.headers.update( "AppleWebKit/537.36 (KHTML, like Gecko) "
{ "Chrome/122.0.0.0 Safari/537.36",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) \ "Accept-Language": "fr-FR,fr;q=0.9,en;q=0.8",
AppleWebKit/537.36 (KHTML, like Gecko) \ })
Chrome/122.0.0.0 Safari/537.36",
"Accept-Language": "fr-FR,fr;q=0.9,en;q=0.8",
}
)
# Système de cache pour éviter de solliciter le serveur inutilement # Système de cache pour éviter de solliciter le serveur inutilement
# utilise pour _request
self._latest_request: tuple[(str, Response)] | None = None self._latest_request: tuple[(str, Response)] | None = None
# utilise pour getsoup
self._latest_soups: OrderedDict[str, BeautifulSoup] = OrderedDict[ self._latest_soups: OrderedDict[str, BeautifulSoup] = OrderedDict[
str, BeautifulSoup str, BeautifulSoup
]() ]()
@@ -267,14 +196,24 @@ class Scraper:
Returns: Returns:
Response: L'objet réponse de la requête. Response: L'objet réponse de la requête.
Raises: Raise:
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
""" """
target_url: str = self._url + subdir.lstrip("/") target_url: str = self._url + subdir.lstrip("/")
# envoyer une requête GET sur la page si erreur, renvoie un raise
response: Response = self._session.get(url=target_url, timeout=30) last_exc: Exception | None = None
response.raise_for_status() for attempt in range(1, 4):
return response try:
response: Response = self._session.get(url=target_url, timeout=30)
response.raise_for_status()
return response
except (Timeout, ConnectionError) as e:
last_exc = e
print(f"Timeout/ConnectionError ({attempt}/3) sur {target_url}: {e}")
time.sleep(2 * attempt) # 2s, 4s, 6s
# après 3 essais, on abandonne
raise last_exc if last_exc else RuntimeError("Request failed")
def getresponse(self, subdir: str = "", use_cache: bool = True) -> Response: def getresponse(self, subdir: str = "", use_cache: bool = True) -> Response:
""" """
@@ -288,7 +227,7 @@ class Scraper:
Returns: Returns:
Response: L'objet réponse (cache ou nouvelle requête). Response: L'objet réponse (cache ou nouvelle requête).
Raises: Raise:
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
""" """
@@ -318,7 +257,7 @@ class Scraper:
Returns: Returns:
BeautifulSoup: L'objet parsé pour extraction de données. BeautifulSoup: L'objet parsé pour extraction de données.
Raises: Raise:
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
""" """
@@ -339,20 +278,23 @@ class Scraper:
def getjsondata(self, subdir: str, id: str = "__NEXT_DATA__") -> _ScraperData: def getjsondata(self, subdir: str, id: str = "__NEXT_DATA__") -> _ScraperData:
""" """
Extrait les données JSON contenues dans la balise __NEXT_DATA__ du site. Extrait les données JSON contenues dans la balise __NEXT_DATA__ du site.
Beaucoup de sites modernes (Next.js) stockent leur état initial dans
une balise <script> pour l'hydratation côté client.
Args: Args:
subdir (str): Le chemin de la page. subdir (str): Le chemin de la page.
id (str, optional): L'identifiant de la balise script. id (str, optional): L'identifiant de la balise script (par défaut __NEXT_DATA__).
Raises: Raises:
HTTPError: Erreur renvoe par le serveur (4xx, 5xx). HTTPError: Soulevée par `getresponse` si le serveur renvoie un code d'erreur (4xx, 5xx).
JSONDecodeError: Si le contenu de la balise n'est pas un JSON valide. JSONDecodeError: Soulevée par `loads` si le contenu de la balise n'est pas un JSON valide.
ValueError: Si les clés 'props' ou 'pageProps' sont absentes. ValueError: Soulevée manuellement si l'une des clés attendues (props, pageProps, etc.)
est absente de la structure JSON.
Returns: Returns:
_ScraperData: Instance contenant les données extraites. dict[str, object]: Un dictionnaire contenant les données utiles
ou un dictionnaire vide en cas d'erreur.
""" """
soup: BeautifulSoup = self.getsoup(subdir) soup: BeautifulSoup = self.getsoup(subdir)
script: Tag | None = soup.find("script", id=id) script: Tag | None = soup.find("script", id=id)
@@ -369,112 +311,117 @@ class Scraper:
return _ScraperData(cast(dict[str, object], current_data)) return _ScraperData(cast(dict[str, object], current_data))
def _geturlproductslist(self, subdir: str) -> list[dict[str, Any]] | None: def _geturlproductslist(self, subdir: str):
""" """_summary_
Récupère la liste des produits d'une page de catégorie.
Args:
subdir (str): _description_
Returns:
_type_: _description_
""" """
try: try:
data: dict[str, object] = self.getjsondata(subdir).getdata() data: dict[str, object] = self.getjsondata(subdir).getdata()
for element in ["initialReduxState", "categ", "content"]: for element in ["initialReduxState", "categ", "content"]:
data = cast(dict[str, object], data.get(element)) data: dict[str, object] = cast(dict[str, object], data.get(element))
if not isinstance(data, dict):
products: list[dict[str, Any]] = cast( return None
list[dict[str, Any]], data.get("products")
)
products: list[str] = cast(list[str], data.get("products"))
if isinstance(products, list): if isinstance(products, list):
return products return products
except (JSONDecodeError, HTTPError): except (JSONDecodeError, HTTPError):
return None return None
def _writevins(self, cache: set[str], product: dict[str, Any], f: Any) -> None: def _save_progress(self, page: int, i: int, last_link: str) -> None:
Path("progress.txt").write_text(f"{page},{i},{last_link}", encoding="utf-8")
def _load_progress(self) -> tuple[int, int, str | None]:
p = Path("progress.txt")
if not p.exists():
return (1, 0, None)
try:
parts = p.read_text(encoding="utf-8").strip().split(",", 2)
page = int(parts[0])
i = int(parts[1])
last_link = parts[2] if len(parts) == 3 and parts[2] != "" else None
return (page, i, last_link)
except Exception:
return (1, 0, None)
def getvins(self, subdir: str, filename: str):
"""_summary_ """_summary_
Args: Args:
cache (set[str]): _description_ subdir (str): _description_
product (dict): _description_ filename (str): _description_
f (Any): _description_
""" """
if isinstance(product, dict): start_page, start_i, last_link = self._load_progress()
link: Any | None = product.get("seoKeyword") print(f"__INFO__ Reprise à page={start_page}, index={start_i}, last_link={last_link}")
if link and link not in cache:
try: with open(filename, "a", encoding="utf-8") as f:
infos = self.getjsondata(link).informations() cache: set[str] = set[str]()
_ = f.write(infos + "\n")
cache.add(link) if f.tell() == 0:
except (JSONDecodeError, HTTPError) as e: _ = f.write("Appellation,Robert,Robinson,Suckling,Prix\n")
print(f"Erreur sur le produit {link}: {e}")
page = start_page - 1
while True:
page += 1
products_list = self._geturlproductslist(f"{subdir}?page={page}")
def getvins(self, subdir: str, filename: str, reset: bool = False) -> None: if not products_list:
""" break
Scrape toutes les pages d'une catégorie et sauvegarde en CSV.
Args: products_list_length = len(products_list)
subdir (str): La catégorie (ex: '/vins-rouges'). start_at = start_i if page == start_page else 0
filename (str): Nom du fichier de sortie (ex: 'vins.csv').
reset (bool): (Optionnel) pour réinitialiser le processus.
"""
# mode d'écriture fichier
mode: Literal["w", "a+"] = "w" if reset else "a+"
# titre
title: str = "Appellation,Robert,Robinson,Suckling,Prix\n"
# page du début
page: int = 1
# le set qui sert de cache
cache: set[str] = set[str]()
custom_format = "{l_bar} {bar:20} {r_bar}" for i in range(start_at, products_list_length):
product = products_list[i]
if not isinstance(product, dict):
continue
if not reset: link = product.get("seoKeyword")
# appelle la fonction pour load le cache, si il existe if not link:
# pas, il utilise les variables de base sinon il override continue
# toute les variables pour continuer et pas recommencer le
# processus en entier.
serializable: tuple[int, set[str]] | None = loadstate()
if isinstance(serializable, tuple):
page, cache = serializable
try:
with open(filename, mode) as f:
# check si le titre est bien présent au début du buffer
# sinon il l'ecrit, petit bug potentiel, a+ ecrit tout le
# temps a la fin du buffer, si on a ecrit des choses avant
# le titre sera apres ces données mais on part du principe
# que personne va toucher le fichier.
_ = f.seek(0, SEEK_SET)
if not (f.read(len(title)) == title):
_ = f.write(title)
else:
_ = f.seek(0, SEEK_END)
while True: # pour eviter les doublons :
products_list: list[dict[str, Any]] | None = ( if (page == start_page) and (last_link is not None) and (link == last_link):
self._geturlproductslist(f"{subdir}?page={page}") self._save_progress(page, + 1, link)
) continue
if not products_list:
break
pbar: tqdm[dict[str, Any]] = tqdm( self._save_progress(page, i + 1, link)
products_list, bar_format=custom_format
) if link in cache:
for product in pbar: continue
keyword = product.get("seoKeyword", "Inconnu")[:40]
pbar.set_description( try:
f"Page: {page:<3} | Product: {keyword:<40}" infos = self.getjsondata(link).informations()
) _ = f.write(infos + "\n")
self._writevins(cache, product, f) print(f"page: {page} | {i + 1}/{products_list_length} {link}")
page += 1 cache.add(link)
except Exception:
if not reset: except (JSONDecodeError, HTTPError) as e:
savestate((page, cache)) print(f"Erreur sur le produit {link}: {e}")
f.flush()
Path("progress.txt").unlink(missing_ok=True)
def main() -> None: def main() -> None:
if len(argv) != 3: if len(argv) != 2:
raise ValueError(f"{argv[0]} <filename> <sous-url>") raise ValueError(f"{argv[0]} <sous-url>")
scraper: Scraper = Scraper() scraper: Scraper = Scraper()
scraper.getvins(argv[2], argv[1]) scraper.getvins(argv[1], "donnee.csv")
if __name__ == "__main__": if __name__ == "__main__":

64
test_cleaning.py Normal file
View File

@@ -0,0 +1,64 @@
import pandas as pd
import pytest
from pandas import DataFrame
from cleaning import (
SCORE_COLS,
drop_empty_appellation,
mean_score,
fill_missing_scores,
encode_appellation,
)
@pytest.fixture
def df_raw() -> DataFrame:
return pd.DataFrame({
"Appellation": ["Pauillac", "Pauillac ", "Margaux", None, "Pomerol", "Pomerol"],
"Robert": ["95", None, "bad", 90, None, None],
"Robinson": [None, "93", 18, None, None, None],
"Suckling": [96, None, None, None, 91, None],
"Prix": ["10.0", "11.0", "20.0", "30.0", "40.0", "50.0"],
})
def test_drop_empty_appellation(df_raw: DataFrame):
out = drop_empty_appellation(df_raw)
assert out["Appellation"].isna().sum() == 0
assert len(out) == 5
def test_mean_score_zero_when_no_scores(df_raw: DataFrame):
out = drop_empty_appellation(df_raw)
m = mean_score(out, "Robert")
assert list(m.columns) == ["Appellation", "mean_Robert"]
# Pomerol n'a aucune note Robert => moyenne doit être 0
pomerol_mean = m.loc[m["Appellation"].str.strip() == "Pomerol", "mean_Robert"].iloc[0]
assert pomerol_mean == 0
def test_fill_missing_scores(df_raw: DataFrame):
out = drop_empty_appellation(df_raw)
filled = fill_missing_scores(out)
# plus de NaN dans les colonnes de scores
for col in SCORE_COLS:
assert filled[col].isna().sum() == 0
assert filled.loc[1, "Robert"] == 95.0
# pas de colonnes temporaires mean_*
for col in SCORE_COLS:
assert f"mean_{col}" not in filled.columns
def test_encode_appellation(df_raw: DataFrame):
out = drop_empty_appellation(df_raw)
filled = fill_missing_scores(out)
encoded = encode_appellation(filled)
# la colonne texte disparaît
assert "Appellation" not in encoded.columns
assert "Pauillac" in encoded.columns
assert encoded.loc[0, "Pauillac"] == 1

0
test_main.py Normal file
View File

View File

@@ -153,7 +153,7 @@ def mock_site():
html_product = f""" html_product = f"""
<html> <html>
<body> <body>
<h1>MILLESIMA</h1> <h1>MILLESIMA</h1>
<script id="__NEXT_DATA__" type="application/json"> <script id="__NEXT_DATA__" type="application/json">
{dumps(json_data)} {dumps(json_data)}
@@ -168,7 +168,7 @@ def mock_site():
html_product = f""" html_product = f"""
<html> <html>
<body> <body>
<h1>MILLESIMA</h1> <h1>MILLESIMA</h1>
<script id="__NEXT_DATA__" type="application/json"> <script id="__NEXT_DATA__" type="application/json">
{dumps(json_data)} {dumps(json_data)}
@@ -179,7 +179,7 @@ def mock_site():
list_pleine = f""" list_pleine = f"""
<html> <html>
<body> <body>
<h1>LE WINE</h1> <h1>LE WINE</h1>
<script id="__NEXT_DATA__" type="application/json"> <script id="__NEXT_DATA__" type="application/json">
{dumps({ {dumps({
@@ -207,7 +207,7 @@ def mock_site():
list_vide = f""" list_vide = f"""
<html> <html>
<body> <body>
<h1>LE WINE</h1> <h1>LE WINE</h1>
<script id="__NEXT_DATA__" type="application/json"> <script id="__NEXT_DATA__" type="application/json">
{dumps({ {dumps({
@@ -319,7 +319,7 @@ def test_informations(scraper: Scraper):
def test_search(scraper: Scraper): def test_search(scraper: Scraper):
m = mock_open() m = mock_open()
with patch("builtins.open", m): with patch("builtins.open", m):
scraper.getvins("wine.html", "fake_file.csv", True) scraper.getvins("wine.html", "fake_file.csv")
assert m().write.called assert m().write.called
all_writes = "".join(call.args[0] for call in m().write.call_args_list) all_writes = "".join(call.args[0] for call in m().write.call_args_list)