21 Commits

Author SHA1 Message Date
4b3c3c26e8 ajout: ajout prefixe get_dummies 2026-03-06 21:34:34 +01:00
de1d325fb7 fix: enlever la generation de page 2026-03-06 21:08:31 +01:00
f4ded6d8b5 ajout: correction d'erreur, changement de main dans cleaning 2026-03-06 21:02:52 +01:00
acf4ddd881 ajout: restructuration de la cleaning 2026-03-06 17:56:07 +01:00
69b8b4ce1f ajout: restructuration du code 2026-03-05 22:06:00 +01:00
8047b06253 fix: sauvegarde toute les 5 pages 2026-03-05 20:00:23 +01:00
5303d36988 Merge branch 'jalon2_Chahrazad' of https://github.com/guezoloic/millesima_projetS6 into jalon2-loic 2026-03-05 18:59:38 +01:00
0d96ff7714 ajout: commentaire getvins 2026-03-04 12:51:10 +01:00
ebd9d15f77 fix: enlever custom name save 2026-03-04 12:48:54 +01:00
8a888f583c fix: modification exception 2026-03-04 12:43:57 +01:00
Chahrazad650
cefdb94dd5 ajout : aout des tests test_cleaning.py 2026-03-03 04:18:30 +01:00
Chahrazad650
06097c257e ajout : remplacer appellation par les colonnes indicatrices 2026-03-03 03:26:58 +01:00
Chahrazad650
b0eb5df07e ajout : remplac les notes manquantes par la moyenne de l'appellation 2026-03-03 03:18:35 +01:00
e6c649b433 ajout: ajout factorisation vin et meilleure barre 2026-03-02 21:42:23 +01:00
3619890dc4 ajout: systeme de cache pour eviter recommencer 2026-03-02 18:30:26 +01:00
123c43aa05 ajout: documentation 2026-03-01 22:35:30 +01:00
a163e7687f ajout: modification dependances et ajout documentation 2026-03-01 20:37:16 +01:00
Chahrazad650
5afb6e38fe ajout : moyennes des notes par appellation 2026-02-26 21:11:43 +01:00
Chahrazad650
f31de22693 Q9 suppression les lignes sans appellation 2026-02-25 03:49:36 +01:00
Chahrazad650
73c6221080 ajout de la reprise automatique du scraping dans getvins 2026-02-25 02:48:55 +01:00
Chahrazad650
99dd71989d debuger _geturlproductslist et request -erreur 403 2026-02-25 00:10:00 +01:00
12 changed files with 446 additions and 142 deletions

View File

@@ -10,30 +10,29 @@ on:
branches: ["main"] branches: ["main"]
permissions: permissions:
contents: read contents: write
jobs: jobs:
build: build:
runs-on: ubuntu-latest runs-on: ubuntu-latest
steps: steps:
- uses: actions/checkout@v4 - uses: actions/checkout@v4
- name: Set up Python 3.10 - name: Set up Python 3.10
uses: actions/setup-python@v3 uses: actions/setup-python@v4
with: with:
python-version: "3.10" python-version: "3.10"
- name: Install dependencies
- name: install dependencies
run: | run: |
python -m pip install --upgrade pip python -m pip install --upgrade pip
pip install flake8 pytest pip install ".[test,doc]"
if [ -f requirements.txt ]; then pip install -r requirements.txt; fi
- name: Lint with flake8 - name: Lint with flake8
run: | run: |
# stop the build if there are Python syntax errors or undefined names
flake8 . --count --select=E9,F63,F7,F82 --show-source --statistics flake8 . --count --select=E9,F63,F7,F82 --show-source --statistics
# exit-zero treats all errors as warnings. The GitHub editor is 127 chars wide
flake8 . --count --exit-zero --max-complexity=10 --max-line-length=127 --statistics flake8 . --count --exit-zero --max-complexity=10 --max-line-length=127 --statistics
- name: Test with pytest - name: Test with pytest
run: | run: pytest
pytest

1
docs/index.md Normal file
View File

@@ -0,0 +1 @@
# Millesima

3
docs/scraper.md Normal file
View File

@@ -0,0 +1,3 @@
# Scraper
::: scraper.Scraper

4
docs/scraperdata.md Normal file
View File

@@ -0,0 +1,4 @@
# _ScraperData
::: scraper._ScraperData

14
mkdocs.yml Normal file
View File

@@ -0,0 +1,14 @@
site_name: "Projet Millesima S6"
theme:
name: "material"
plugins:
- search
- mkdocstrings
markdown_extensions:
- admonition
- pymdownx.details
- pymdownx.superfences
- pymdownx.tabbed

View File

@@ -5,11 +5,13 @@ dependencies = [
"requests==2.32.5", "requests==2.32.5",
"beautifulsoup4==4.14.3", "beautifulsoup4==4.14.3",
"pandas==2.3.3", "pandas==2.3.3",
"tqdm==4.67.3",
] ]
[project.optional-dependencies] [project.optional-dependencies]
test = ["pytest==8.4.2", "requests-mock==1.12.1"] test = ["pytest==8.4.2", "requests-mock==1.12.1", "flake8==7.3.0"]
doc = ["mkdocs<2.0.0", "mkdocs-material==9.6.23", "mkdocstrings[python]"]
[build-system] [build-system]
requires = ["setuptools"] requires = ["setuptools", "wheel"]
build-backend = "setuptools.build_meta" build-backend = "setuptools.build_meta"

109
src/cleaning.py Executable file
View File

@@ -0,0 +1,109 @@
#!/usr/bin/env python3
from os import getcwd
from os.path import normpath, join
from typing import cast
from pandas import DataFrame, read_csv, to_numeric, get_dummies
from sys import argv
def path_filename(filename: str) -> str:
return normpath(join(getcwd(), filename))
class Cleaning:
def __init__(self, filename) -> None:
self._vins: DataFrame = read_csv(filename)
# créer la liste de tout les scores
self.SCORE_COLS: list[str] = [
c for c in self._vins.columns if c not in ["Appellation", "Prix"]
]
# transforme tout les colonnes score en numérique
for col in self.SCORE_COLS:
self._vins[col] = to_numeric(self._vins[col], errors="coerce")
def getVins(self) -> DataFrame:
return self._vins.copy(deep=True)
def __str__(self) -> str:
"""
Affiche un résumé du DataFrame
- la taille
- types des colonnes
- valeurs manquantes
- statistiques numériques
"""
return (
f"Shape : {self._vins.shape[0]} lignes x {self._vins.shape[1]} colonnes\n\n"
f"Types des colonnes :\n{self._vins.dtypes}\n\n"
f"Valeurs manquantes :\n{self._vins.isna().sum()}\n\n"
f"Statistiques numériques :\n{self._vins.describe().round(2)}\n\n"
)
def drop_empty_appellation(self) -> "Cleaning":
self._vins = self._vins.dropna(subset=["Appellation"])
return self
def _mean_score(self, col: str) -> DataFrame:
"""
Calcule la moyenne d'une colonne de score par appellation.
- Convertit les valeurs en numériques, en remplaçant les non-convertibles par NaN
- Calcule la moyenne par appellation
- Remplace les NaN résultants par 0
"""
means = self._vins.groupby("Appellation", as_index=False)[col].mean()
means = means.rename(
columns={col: f"mean_{col}"}
) # pyright: ignore[reportCallIssue]
return cast(DataFrame, means.fillna(0))
def _mean_robert(self) -> DataFrame:
return self._mean_score("Robert")
def _mean_robinson(self) -> DataFrame:
return self._mean_score("Robinson")
def _mean_suckling(self) -> DataFrame:
return self._mean_score("Suckling")
def fill_missing_scores(self) -> "Cleaning":
"""
Remplacer les notes manquantes par la moyenne
des vins de la même appellation.
"""
for element in self.SCORE_COLS:
means = self._mean_score(element)
self._vins = self._vins.merge(means, on="Appellation", how="left")
mean_col = f"mean_{element}"
self._vins[element] = self._vins[element].fillna(self._vins[mean_col])
self._vins = self._vins.drop(columns=["mean_" + element])
return self
def encode_appellation(self, column: str = "Appellation") -> "Cleaning":
"""
Remplace la colonne 'Appellation' par des colonnes indicatrices
"""
appellations = self._vins[column].astype(str).str.strip()
appellation_dummies = get_dummies(appellations, prefix="App")
self._vins = self._vins.drop(columns=[column])
self._vins = self._vins.join(appellation_dummies)
return self
def main() -> None:
if len(argv) != 2:
raise ValueError(f"Usage: {argv[0]} <filename.csv>")
filename = argv[1]
cleaning: Cleaning = Cleaning(filename)
_ = cleaning.drop_empty_appellation().fill_missing_scores().encode_appellation()
if __name__ == "__main__":
try:
main()
except Exception as e:
print(f"ERREUR: {e}")

View File

@@ -1,20 +0,0 @@
#!/usr/bin/env python3
from os import getcwd
from os.path import normpath, join
from sys import argv
from pandas import read_csv, DataFrame
def main() -> None:
if len(argv) != 2:
raise ValueError(f"{argv[0]} <filename.csv>")
path: str = normpath(join(getcwd(), argv[1]))
db: DataFrame = read_csv(path)
print(db.all())
if __name__ == "__main__":
try:
main()
except Exception as e:
print(f"ERREUR: {e}")

View File

@@ -1,29 +1,78 @@
#!/usr/bin/env python3 #!/usr/bin/env python3
from sys import argv
from typing import cast
from requests import HTTPError, Response, Session
from bs4 import BeautifulSoup, Tag
from collections import OrderedDict from collections import OrderedDict
from io import SEEK_END, SEEK_SET, BufferedWriter, TextIOWrapper
from json import JSONDecodeError, loads from json import JSONDecodeError, loads
from os import makedirs
from os.path import dirname, exists, join, normpath, realpath
from pickle import UnpicklingError, dump, load
from sys import argv
from tqdm.std import tqdm
from typing import Any, Callable, Literal, TypeVar, cast
from bs4 import BeautifulSoup, Tag
from requests import HTTPError, Response, Session
_dir: str = dirname(realpath(__name__))
T = TypeVar("T")
def _getcache(mode: Literal["rb", "wb"], fn: Callable[[Any], T]) -> T | None:
"""_summary_
Returns:
_type_: _description_
"""
cache_dirname = normpath(join(_dir, ".cache"))
save_path = normpath(join(cache_dirname, "save"))
if not exists(cache_dirname):
makedirs(cache_dirname)
try:
with open(save_path, mode) as f:
return fn(f)
except (FileNotFoundError, EOFError, UnpicklingError):
return None
def savestate(data: tuple[int, set[str]]) -> None:
def save(f: BufferedWriter) -> None:
_ = f.seek(0)
_ = f.truncate()
dump(data, f)
f.flush()
_getcache("wb", save)
def loadstate() -> tuple[int, set[str]] | None:
return _getcache("rb", lambda f: load(f))
class _ScraperData: class _ScraperData:
"""_summary_""" """
Conteneur de données spécialisé pour extraire les informations des dictionnaires JSON.
Cette classe agit comme une interface simplifiée au-dessus du dictionnaire brut
renvoyé par la balise __NEXT_DATA__ du site Millesima.
"""
def __init__(self, data: dict[str, object]) -> None: def __init__(self, data: dict[str, object]) -> None:
"""_summary_ """
Initialise le conteneur avec un dictionnaire de données.
Args: Args:
data (dict[str, object]): _description_ data (dict[str, object]): Le dictionnaire JSON brut extrait de la page.
""" """
self._data: dict[str, object] = data self._data: dict[str, object] = data
def _getcontent(self) -> dict[str, object] | None: def _getcontent(self) -> dict[str, object] | None:
"""_summary_ """
Navigue dans l'arborescence Redux pour atteindre le contenu du produit.
Returns: Returns:
dict[str, object]: _description_ dict[str, object] | None: Le dictionnaire du produit ou None si la structure diffère.
""" """
current_data: dict[str, object] = self._data current_data: dict[str, object] = self._data
for key in ["initialReduxState", "product", "content"]: for key in ["initialReduxState", "product", "content"]:
@@ -35,10 +84,11 @@ class _ScraperData:
return current_data return current_data
def _getattributes(self) -> dict[str, object] | None: def _getattributes(self) -> dict[str, object] | None:
"""_summary_ """
Extrait les attributs techniques (notes, appellations, etc.) du produit.
Returns: Returns:
dict[str, object]: _description_ dict[str, object] | None: Les attributs du vin ou None.
""" """
current_data: object = self._getcontent() current_data: object = self._getcontent()
if current_data is None: if current_data is None:
@@ -47,9 +97,13 @@ class _ScraperData:
def prix(self) -> float | None: def prix(self) -> float | None:
""" """
Retourne le prix unitaire d'une bouteille (75cl). Calcule le prix unitaire d'une bouteille (standardisée à 75cl).
Si aucun prix n'est disponible, retourne None. Le site vend souvent par caisses (6, 12 bouteilles) ou formats (Magnum).
Cette méthode normalise le prix pour obtenir celui d'une seule unité.
Returns:
float | None: Le prix calculé arrondi à 2 décimales, ou None.
""" """
content = self._getcontent() content = self._getcontent()
@@ -91,13 +145,13 @@ class _ScraperData:
return prix_calcule return prix_calcule
def appellation(self) -> str | None: def appellation(self) -> str | None:
"""_summary_ """
Extrait le nom de l'appellation du vin.
Returns: Returns:
str: _description_ str | None: Le nom (ex: 'Pauillac') ou None.
""" """
attrs: dict[str, object] | None = self._getattributes() attrs: dict[str, object] | None = self._getattributes()
if attrs is not None: if attrs is not None:
app_dict: object | None = attrs.get("appellation") app_dict: object | None = attrs.get("appellation")
if isinstance(app_dict, dict): if isinstance(app_dict, dict):
@@ -105,13 +159,16 @@ class _ScraperData:
return None return None
def _getcritiques(self, name: str) -> str | None: def _getcritiques(self, name: str) -> str | None:
"""_summary_ """
Méthode générique pour parser les notes des critiques (Parker, Suckling, etc.).
Gère les notes simples ("95") et les plages de notes ("95-97") en faisant la moyenne.
Args: Args:
name (str): _description_ name (str): La clé de l'attribut dans le JSON (ex: 'note_rp').
Returns: Returns:
str | None: _description_ str | None: La note formatée en chaîne de caractères ou None.
""" """
current_value: dict[str, object] | None = self._getattributes() current_value: dict[str, object] | None = self._getattributes()
@@ -130,45 +187,54 @@ class _ScraperData:
return None return None
def parker(self) -> str | None: def parker(self) -> str | None:
"""Note Robert Parker."""
return self._getcritiques("note_rp") return self._getcritiques("note_rp")
def robinson(self) -> str | None: def robinson(self) -> str | None:
"""Note Jancis Robinson."""
return self._getcritiques("note_jr") return self._getcritiques("note_jr")
def suckling(self) -> str | None: def suckling(self) -> str | None:
"""Note James Suckling."""
return self._getcritiques("note_js") return self._getcritiques("note_js")
def getdata(self) -> dict[str, object]: def getdata(self) -> dict[str, object]:
"""Retourne le dictionnaire de données complet."""
return self._data return self._data
def informations(self) -> str: def informations(self) -> str:
""" """
Retourne toutes les informations sous la forme : Agrège les données clés pour l'export CSV.
"Appelation,Parker,J.Robinson,J.Suckling,Prix"
Returns:
str: Ligne formatée : "Appellation,Parker,Robinson,Suckling,Prix".
""" """
appellation = self.appellation() appellation = self.appellation()
parker = self.parker() parker = self.parker()
robinson = self.robinson() robinson = self.robinson()
suckling = self.suckling() suckling = self.suckling()
try:
prix = self.prix() prix = self.prix()
except ValueError: prix = self.prix()
prix = None
return f"{appellation},{parker},{robinson},{suckling},{prix}" return f"{appellation},{parker},{robinson},{suckling},{prix}"
class Scraper: class Scraper:
""" """
Scraper est une classe qui permet de gerer Client HTTP optimisé pour le scraping de millesima.fr.
de façon dynamique des requetes uniquement
sur le serveur https de Millesima Gère la session persistante, les headers de navigation et un cache double
pour optimiser les performances et la discrétion.
""" """
def __init__(self) -> None: def __init__(self) -> None:
""" """
Initialise la session de scraping. Initialise l'infrastructure de navigation:
- créer une session pour éviter de faire un handshake pour chaque requête
- ajout d'un header pour éviter le blocage de l'accès au site
- ajout d'un système de cache
""" """
self._url: str = "https://www.millesima.fr/" self._url: str = "https://www.millesima.fr/"
# Très utile pour éviter de renvoyer toujours les mêmes handshake # Très utile pour éviter de renvoyer toujours les mêmes handshake
@@ -178,16 +244,16 @@ class Scraper:
# bloque car on serait des robots # bloque car on serait des robots
self._session.headers.update( self._session.headers.update(
{ {
"User-Agent": "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
AppleWebKit/537.36 (KHTML, like Gecko) \ AppleWebKit/537.36 (KHTML, like Gecko) \
Chrome/122.0.0.0 Safari/537.36", Chrome/122.0.0.0 Safari/537.36",
"Accept-Language": "Accept-Language": "fr-FR,fr;q=0.9,en;q=0.8",
"fr-FR,fr;q=0.9,en;q=0.8",
} }
) )
# Système de cache pour éviter de solliciter le serveur inutilement # Système de cache pour éviter de solliciter le serveur inutilement
# utilise pour _request
self._latest_request: tuple[(str, Response)] | None = None self._latest_request: tuple[(str, Response)] | None = None
# utilise pour getsoup
self._latest_soups: OrderedDict[str, BeautifulSoup] = OrderedDict[ self._latest_soups: OrderedDict[str, BeautifulSoup] = OrderedDict[
str, BeautifulSoup str, BeautifulSoup
]() ]()
@@ -202,7 +268,7 @@ class Scraper:
Returns: Returns:
Response: L'objet réponse de la requête. Response: L'objet réponse de la requête.
Raise: Raises:
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
""" """
target_url: str = self._url + subdir.lstrip("/") target_url: str = self._url + subdir.lstrip("/")
@@ -223,7 +289,7 @@ class Scraper:
Returns: Returns:
Response: L'objet réponse (cache ou nouvelle requête). Response: L'objet réponse (cache ou nouvelle requête).
Raise: Raises:
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
""" """
@@ -253,7 +319,7 @@ class Scraper:
Returns: Returns:
BeautifulSoup: L'objet parsé pour extraction de données. BeautifulSoup: L'objet parsé pour extraction de données.
Raise: Raises:
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
""" """
@@ -274,23 +340,20 @@ class Scraper:
def getjsondata(self, subdir: str, id: str = "__NEXT_DATA__") -> _ScraperData: def getjsondata(self, subdir: str, id: str = "__NEXT_DATA__") -> _ScraperData:
""" """
Extrait les données JSON contenues dans la balise __NEXT_DATA__ du site. Extrait les données JSON contenues dans la balise __NEXT_DATA__ du site.
Beaucoup de sites modernes (Next.js) stockent leur état initial dans
une balise <script> pour l'hydratation côté client.
Args: Args:
subdir (str): Le chemin de la page. subdir (str): Le chemin de la page.
id (str, optional): L'identifiant de la balise script (par défaut __NEXT_DATA__). id (str, optional): L'identifiant de la balise script.
Raises: Raises:
HTTPError: Soulevée par `getresponse` si le serveur renvoie un code d'erreur (4xx, 5xx). HTTPError: Erreur renvoyée par le serveur (4xx, 5xx).
JSONDecodeError: Soulevée par `loads` si le contenu de la balise n'est pas un JSON valide. JSONDecodeError: Si le contenu de la balise n'est pas un JSON valide.
ValueError: Soulevée manuellement si l'une des clés attendues (props, pageProps, etc.) ValueError: Si les clés 'props' ou 'pageProps' sont absentes.
est absente de la structure JSON.
Returns: Returns:
dict[str, object]: Un dictionnaire contenant les données utiles _ScraperData: Instance contenant les données extraites.
ou un dictionnaire vide en cas d'erreur.
""" """
soup: BeautifulSoup = self.getsoup(subdir) soup: BeautifulSoup = self.getsoup(subdir)
script: Tag | None = soup.find("script", id=id) script: Tag | None = soup.find("script", id=id)
@@ -307,75 +370,137 @@ class Scraper:
return _ScraperData(cast(dict[str, object], current_data)) return _ScraperData(cast(dict[str, object], current_data))
def _geturlproductslist(self, subdir: str) -> list[str] | None: def _geturlproductslist(self, subdir: str) -> list[dict[str, Any]] | None:
"""_summary_ """
Récupère la liste des produits d'une page de catégorie.
Args:
subdir (str): _description_
Returns:
_type_: _description_
""" """
try: try:
data: dict[str, object] = self.getjsondata(subdir).getdata() data: dict[str, object] = self.getjsondata(subdir).getdata()
for element in ["initialReduxState", "categ", "content"]: for element in ["initialReduxState", "categ", "content"]:
data: dict[str, object] = cast(dict[str, object], data.get(element)) data = cast(dict[str, object], data.get(element))
if not isinstance(data, dict):
return None products: list[dict[str, Any]] = cast(
list[dict[str, Any]], data.get("products")
)
products: list[str] = cast(list[str], data.get("products"))
if isinstance(products, list):
return products return products
except (JSONDecodeError, HTTPError): except (JSONDecodeError, HTTPError):
return None return None
def getvins(self, subdir: str, filename: str) -> None: def _writevins(self, cache: set[str], product: dict[str, Any], f: Any) -> None:
"""_summary_ """_summary_
Args: Args:
subdir (str): _description_ cache (set[str]): _description_
filename (str): _description_ product (dict): _description_
f (Any): _description_
""" """
with open(filename, "w") as f: if isinstance(product, dict):
cache: set[str] = set[str]() link: Any | None = product.get("seoKeyword")
page = 0
_ = f.write("Appellation,Robert,Robinson,Suckling,Prix\n")
while True:
page += 1
products_list: list[str] | None = \
self._geturlproductslist(f"{subdir}?page={page}")
if not products_list:
break
products_list_length = len(products_list)
for i, product in enumerate(products_list):
if not isinstance(product, dict):
continue
link = product.get("seoKeyword")
if link and link not in cache: if link and link not in cache:
try: try:
infos = self.getjsondata(link).informations() infos = self.getjsondata(link).informations()
_ = f.write(infos + "\n") _ = f.write(infos + "\n")
print(
f"page: {page} | {i + 1}/{products_list_length} {link}"
)
cache.add(link) cache.add(link)
except (JSONDecodeError, HTTPError) as e: except (JSONDecodeError, HTTPError) as e:
print(f"Erreur sur le produit {link}: {e}") print(f"Erreur sur le produit {link}: {e}")
f.flush()
def _initstate(self, reset: bool) -> tuple[int, set[str]]:
"""
appelle la fonction pour load le cache, si il existe
pas, il utilise les variables de base sinon il override
toute les variables pour continuer et pas recommencer le
processus en entier.
Args:
reset (bool): pouvoir le reset ou pas
Returns:
tuple[int, set[str]]: le contenu de la page et du cache
"""
if not reset:
#
serializable: tuple[int, set[str]] | None = loadstate()
if isinstance(serializable, tuple):
return serializable
return 1, set()
def _ensuretitle(self, f: TextIOWrapper, title: str) -> None:
"""
check si le titre est bien présent au début du buffer
sinon il l'ecrit, petit bug potentiel, a+ ecrit tout le
temps a la fin du buffer, si on a ecrit des choses avant
le titre sera apres ces données mais on part du principe
que personne va toucher le fichier.
Args:
f (TextIOWrapper): buffer stream fichier
title (str): titre du csv
"""
_ = f.seek(0, SEEK_SET)
if not (f.read(len(title)) == title):
_ = f.write(title)
else:
_ = f.seek(0, SEEK_END)
def getvins(self, subdir: str, filename: str, reset: bool = False) -> None:
"""
Scrape toutes les pages d'une catégorie et sauvegarde en CSV.
Args:
subdir (str): La catégorie (ex: '/vins-rouges').
filename (str): Nom du fichier de sortie (ex: 'vins.csv').
reset (bool): (Optionnel) pour réinitialiser le processus.
"""
# mode d'écriture fichier
mode: Literal["w", "a+"] = "w" if reset else "a+"
# titre
title: str = "Appellation,Robert,Robinson,Suckling,Prix\n"
# page: page où commence le scraper
# cache: tout les pages déjà parcourir
page, cache = self._initstate(reset)
try:
with open(filename, mode) as f:
self._ensuretitle(f, title)
while True:
products_list: list[dict[str, Any]] | None = (
self._geturlproductslist(f"{subdir}?page={page}")
)
if not products_list:
break
pbar: tqdm[dict[str, Any]] = tqdm(
products_list, bar_format="{l_bar} {bar:20} {r_bar}"
)
for product in pbar:
keyword: str = cast(
str, product.get("seoKeyword", "Inconnu")[:40]
)
pbar.set_description(
f"Page: {page:<3} | Product: {keyword:<40}"
)
self._writevins(cache, product, f)
page += 1
# va créer un fichier au début et l'override
# tout les 5 pages au cas où SIGHUP ou autre
if page % 5 == 0 and not reset:
savestate((page, cache))
except (Exception, HTTPError, KeyboardInterrupt, JSONDecodeError):
if not reset:
savestate((page, cache))
def main() -> None: def main() -> None:
if len(argv) != 2: if len(argv) != 3:
raise ValueError(f"{argv[0]} <sous-url>") raise ValueError(f"{argv[0]} <filename> <sous-url>")
filename = argv[1]
suburl = argv[2]
scraper: Scraper = Scraper() scraper: Scraper = Scraper()
scraper.getvins(argv[1], "donnee.csv") scraper.getvins(suburl, filename)
if __name__ == "__main__": if __name__ == "__main__":

67
tests/test_cleaning.py Executable file
View File

@@ -0,0 +1,67 @@
import pytest
from unittest.mock import patch, mock_open
from cleaning import Cleaning
@pytest.fixture
def cleaning_raw() -> Cleaning:
"""
"Appellation": ["Pauillac", "Pauillac ", "Margaux", None , "Pomerol", "Pomerol"],
"Robert": ["95" , None , "bad" , 90 , None , None ],
"Robinson": [None , "93" , 18 , None , None , None ],
"Suckling": [96 , None , None , None , 91 , None ],
"Prix": ["10.0" , "11.0" , "20.0" , "30.0", "40.0" , "50.0" ],
"""
csv_content = """Appellation,Robert,Robinson,Suckling,Prix
Pauillac,95,,96,10.0
Pauillac ,,93,,11.0
Margaux,bad,18,,20.0
,90,,,30.0
Pomerol,,,91,40.0
Pomerol,,,,50.0
"""
m = mock_open(read_data=csv_content)
with patch("builtins.open", m):
return Cleaning("donnee.csv")
def test_drop_empty_appellation(cleaning_raw: Cleaning) -> None:
out = cleaning_raw.drop_empty_appellation().getVins()
assert out["Appellation"].isna().sum() == 0
assert len(out) == 5
def test_mean_score_zero_when_no_scores(cleaning_raw: Cleaning) -> None:
out = cleaning_raw.drop_empty_appellation()
m = out._mean_score("Robert")
assert list(m.columns) == ["Appellation", "mean_Robert"]
pomerol_mean = m.loc[m["Appellation"].str.strip() == "Pomerol", "mean_Robert"].iloc[
0
]
assert pomerol_mean == 0
def test_fill_missing_scores(cleaning_raw: Cleaning):
cleaning_raw._vins["Appellation"] = cleaning_raw._vins["Appellation"].str.strip()
cleaning_raw.drop_empty_appellation()
filled = cleaning_raw.fill_missing_scores().getVins()
for col in cleaning_raw.SCORE_COLS:
assert filled[col].isna().sum() == 0
pauillac_robert = filled[filled["Appellation"] == "Pauillac"]["Robert"]
assert (pauillac_robert == 95.0).all()
def test_encode_appellation(cleaning_raw: Cleaning):
cleaning_raw._vins["Appellation"] = cleaning_raw._vins["Appellation"].str.strip()
out = (
cleaning_raw.drop_empty_appellation()
.fill_missing_scores()
.encode_appellation()
.getVins()
)
assert "App_Appellation" not in out.columns
assert "App_Pauillac" in out.columns
assert int(out.loc[0, "App_Pauillac"]) == 1

View File

2
tests/test_scraper.py Normal file → Executable file
View File

@@ -319,7 +319,7 @@ def test_informations(scraper: Scraper):
def test_search(scraper: Scraper): def test_search(scraper: Scraper):
m = mock_open() m = mock_open()
with patch("builtins.open", m): with patch("builtins.open", m):
scraper.getvins("wine.html", "fake_file.csv") scraper.getvins("wine.html", "fake_file.csv", True)
assert m().write.called assert m().write.called
all_writes = "".join(call.args[0] for call in m().write.call_args_list) all_writes = "".join(call.args[0] for call in m().write.call_args_list)