mirror of
https://github.com/guezoloic/millesima-ai-engine.git
synced 2026-03-28 18:03:47 +00:00
Compare commits
74 Commits
exo2
...
416cfcbf8b
| Author | SHA1 | Date | |
|---|---|---|---|
|
|
416cfcbf8b | ||
| 32c5310e37 | |||
| 9dfc7457a0 | |||
| f5d5703e49 | |||
| 888defb6b6 | |||
| 734e3898e9 | |||
| 4bb3112dd0 | |||
| 54e4b7860b | |||
| b865a59aba | |||
|
|
fde1f36148 | ||
| 6fbb36ea37 | |||
| 4b3c3c26e8 | |||
|
|
bcacd7a915 | ||
| de1d325fb7 | |||
| f4ded6d8b5 | |||
| acf4ddd881 | |||
| 69b8b4ce1f | |||
| 8047b06253 | |||
| 5303d36988 | |||
|
|
d182e08f9b | ||
| 0d96ff7714 | |||
| ebd9d15f77 | |||
| 8a888f583c | |||
|
|
cefdb94dd5 | ||
|
|
06097c257e | ||
|
|
b0eb5df07e | ||
| e6c649b433 | |||
| 3619890dc4 | |||
| 123c43aa05 | |||
| a163e7687f | |||
| 0f6eb856c6 | |||
|
|
5afb6e38fe | ||
|
|
f31de22693 | ||
|
|
73c6221080 | ||
|
|
99dd71989d | ||
| d62145e250 | |||
| 829c303e78 | |||
| b584f9a301 | |||
| 547c7ec4c1 | |||
| 0aa765d6a0 | |||
| 8a357abe86 | |||
|
|
2f5af5aabf | ||
| a33b484dea | |||
| dd430b9861 | |||
| 011bb6a689 | |||
| 96dbaaaaf6 | |||
| ed86e588f7 | |||
|
|
0182bbbf20 | ||
|
|
cd1e266f25 | ||
|
|
2aa99453a0 | ||
| 9f1ff1ef7b | |||
|
|
bfc39db652 | ||
|
|
717fce6ca4 | ||
| 9914e8af41 | |||
|
|
5785d571b2 | ||
| ae66e94d6c | |||
| 2bc5d57a31 | |||
| 8f21e48b28 | |||
|
|
9e0cb9737e | ||
| c62a5e6a76 | |||
|
|
8cae082344 | ||
| 9da0159869 | |||
| 5c22777c2d | |||
| 0d78b1aec3 | |||
| 168ccf88dc | |||
| 6992a0ca16 | |||
| 74482af7f0 | |||
| 76017e3ea3 | |||
|
|
683582a253 | ||
| a81d5be5a9 | |||
| 2327974b6b | |||
| f02a23f032 | |||
|
|
e2317de748 | ||
| 76475d4a2a |
18
.github/dependabot.yml
vendored
Normal file
18
.github/dependabot.yml
vendored
Normal file
@@ -0,0 +1,18 @@
|
|||||||
|
# To get started with Dependabot version updates, you'll need to specify which
|
||||||
|
# package ecosystems to update and where the package manifests are located.
|
||||||
|
# Please see the documentation for all configuration options:
|
||||||
|
# https://docs.github.com/code-security/dependabot/dependabot-version-updates/configuration-options-for-the-dependabot.yml-file
|
||||||
|
|
||||||
|
version: 2
|
||||||
|
updates:
|
||||||
|
- package-ecosystem: "pip"
|
||||||
|
directory: "/"
|
||||||
|
schedule:
|
||||||
|
interval: "weekly"
|
||||||
|
day: "saturday"
|
||||||
|
open-pull-requests-limit: 5
|
||||||
|
groups:
|
||||||
|
python-dependencies:
|
||||||
|
patterns:
|
||||||
|
- "*"
|
||||||
|
|
||||||
45
.github/workflows/python-app.yml
vendored
45
.github/workflows/python-app.yml
vendored
@@ -5,35 +5,34 @@ name: Python application
|
|||||||
|
|
||||||
on:
|
on:
|
||||||
push:
|
push:
|
||||||
branches: [ "main" ]
|
branches: ["main"]
|
||||||
pull_request:
|
pull_request:
|
||||||
branches: [ "main" ]
|
branches: ["main"]
|
||||||
|
|
||||||
permissions:
|
permissions:
|
||||||
contents: read
|
contents: write
|
||||||
|
|
||||||
jobs:
|
jobs:
|
||||||
build:
|
build:
|
||||||
|
|
||||||
runs-on: ubuntu-latest
|
runs-on: ubuntu-latest
|
||||||
|
|
||||||
steps:
|
steps:
|
||||||
- uses: actions/checkout@v4
|
- uses: actions/checkout@v4
|
||||||
- name: Set up Python 3.10
|
|
||||||
uses: actions/setup-python@v3
|
- name: Set up Python 3.10
|
||||||
with:
|
uses: actions/setup-python@v4
|
||||||
python-version: "3.10"
|
with:
|
||||||
- name: Install dependencies
|
python-version: "3.10"
|
||||||
run: |
|
|
||||||
python -m pip install --upgrade pip
|
- name: install dependencies
|
||||||
pip install flake8 pytest
|
run: |
|
||||||
if [ -f requirements.txt ]; then pip install -r requirements.txt; fi
|
python -m pip install --upgrade pip
|
||||||
- name: Lint with flake8
|
pip install ".[test,doc]"
|
||||||
run: |
|
|
||||||
# stop the build if there are Python syntax errors or undefined names
|
- name: Lint with flake8
|
||||||
flake8 . --count --select=E9,F63,F7,F82 --show-source --statistics
|
run: |
|
||||||
# exit-zero treats all errors as warnings. The GitHub editor is 127 chars wide
|
flake8 . --count --select=E9,F63,F7,F82 --show-source --statistics
|
||||||
flake8 . --count --exit-zero --max-complexity=10 --max-line-length=127 --statistics
|
flake8 . --count --exit-zero --max-complexity=10 --max-line-length=127 --statistics
|
||||||
- name: Test with pytest
|
|
||||||
run: |
|
- name: Test with pytest
|
||||||
pytest
|
run: pytest
|
||||||
|
|||||||
58
.github/workflows/static.yml
vendored
Normal file
58
.github/workflows/static.yml
vendored
Normal file
@@ -0,0 +1,58 @@
|
|||||||
|
# Simple workflow for deploying static content to GitHub Pages
|
||||||
|
name: Deploy static content to Pages
|
||||||
|
|
||||||
|
on:
|
||||||
|
# Runs on pushes targeting the default branch
|
||||||
|
push:
|
||||||
|
branches: ["main"]
|
||||||
|
|
||||||
|
# Allows you to run this workflow manually from the Actions tab
|
||||||
|
workflow_dispatch:
|
||||||
|
|
||||||
|
# Sets permissions of the GITHUB_TOKEN to allow deployment to GitHub Pages
|
||||||
|
permissions:
|
||||||
|
contents: read
|
||||||
|
pages: write
|
||||||
|
id-token: write
|
||||||
|
|
||||||
|
# Allow only one concurrent deployment, skipping runs queued between the run in-progress and latest queued.
|
||||||
|
# However, do NOT cancel in-progress runs as we want to allow these production deployments to complete.
|
||||||
|
concurrency:
|
||||||
|
group: "pages"
|
||||||
|
cancel-in-progress: false
|
||||||
|
|
||||||
|
jobs:
|
||||||
|
# Single deploy job since we're just deploying
|
||||||
|
deploy:
|
||||||
|
environment:
|
||||||
|
name: github-pages
|
||||||
|
url: ${{ steps.deployment.outputs.page_url }}
|
||||||
|
runs-on: ubuntu-latest
|
||||||
|
steps:
|
||||||
|
- name: Checkout
|
||||||
|
uses: actions/checkout@v4
|
||||||
|
|
||||||
|
- name: Set up Python 3.10
|
||||||
|
uses: actions/setup-python@v5
|
||||||
|
with:
|
||||||
|
python-version: '3.10'
|
||||||
|
|
||||||
|
- name: Install dependencies
|
||||||
|
run: |
|
||||||
|
python -m pip install --upgrade pip
|
||||||
|
# Installe le projet en mode éditable avec les extras de doc
|
||||||
|
pip install -e ".[doc]"
|
||||||
|
|
||||||
|
- name: Setup Pages
|
||||||
|
uses: actions/configure-pages@v5
|
||||||
|
|
||||||
|
- name: Build Documentation
|
||||||
|
run: mkdocs build
|
||||||
|
- name: Upload artifact
|
||||||
|
uses: actions/upload-pages-artifact@v3
|
||||||
|
with:
|
||||||
|
# Upload entire repository
|
||||||
|
path: './site'
|
||||||
|
- name: Deploy to GitHub Pages
|
||||||
|
id: deployment
|
||||||
|
uses: actions/deploy-pages@v4
|
||||||
2
.gitignore
vendored
2
.gitignore
vendored
@@ -205,3 +205,5 @@ cython_debug/
|
|||||||
marimo/_static/
|
marimo/_static/
|
||||||
marimo/_lsp/
|
marimo/_lsp/
|
||||||
__marimo__/
|
__marimo__/
|
||||||
|
|
||||||
|
*.csv
|
||||||
38
README.md
38
README.md
@@ -1 +1,37 @@
|
|||||||
# millesima_projetS6
|
# Millesima AI Engine 🍷
|
||||||
|
|
||||||
|
> A **University of Paris-Est Créteil (UPEC)** Semester 6 project.
|
||||||
|
|
||||||
|
## Documentation
|
||||||
|
- 🇫🇷 [Version Française](https://guezoloic.github.io/millesima-ai-engine)
|
||||||
|
> note: only french version enabled for now.
|
||||||
|
---
|
||||||
|
|
||||||
|
## Installation
|
||||||
|
> Make sure you have **Python 3.10+** installed.
|
||||||
|
|
||||||
|
1. **Clone the repository:**
|
||||||
|
```bash
|
||||||
|
git clone https://github.com/votre-pseudo/millesima-ai-engine.git
|
||||||
|
cd millesima-ai-engine
|
||||||
|
```
|
||||||
|
|
||||||
|
2. **Set up a virtual environment:**
|
||||||
|
```bash
|
||||||
|
python3 -m venv .venv
|
||||||
|
source .venv/bin/activate # Windows: .venv\Scripts\activate
|
||||||
|
```
|
||||||
|
|
||||||
|
3. **Install dependencies:**
|
||||||
|
```bash
|
||||||
|
pip install -e .
|
||||||
|
```
|
||||||
|
|
||||||
|
## Usage
|
||||||
|
|
||||||
|
### 1. Data Extraction (Scraping)
|
||||||
|
To fetch the latest wine data from Millesima:
|
||||||
|
```bash
|
||||||
|
python3 src/scraper.py
|
||||||
|
```
|
||||||
|
> Note: that will take some time to fetch all data depending on the catalog size.
|
||||||
17
docs/cleaning.md
Normal file
17
docs/cleaning.md
Normal file
@@ -0,0 +1,17 @@
|
|||||||
|
# Cleaning
|
||||||
|
|
||||||
|
## Sommaire
|
||||||
|
[TOC]
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## Classe `Cleaning`
|
||||||
|
::: src.cleaning.Cleaning
|
||||||
|
options:
|
||||||
|
heading_level: 3
|
||||||
|
members:
|
||||||
|
- __init__
|
||||||
|
- getVins
|
||||||
|
- drop_empty_appellation
|
||||||
|
- fill_missing_scores
|
||||||
|
- encode_appellation
|
||||||
16
docs/index.md
Normal file
16
docs/index.md
Normal file
@@ -0,0 +1,16 @@
|
|||||||
|
# Millesima
|
||||||
|
|
||||||
|
L’objectif de ce projet est d’étudier, en utilisant des méthodes d’apprentissage automatique, l’impact de différents critères (notes des critiques, appelation) sur le prix d’un vin. Pour ce faire, on s’appuiera sur le site Millesima (https://www.millesima.fr/), qui a l’avantage de ne pas posséder de protection contre les bots. Par respect pour l’hébergeur du site, on veillera à limiter au maximum le nombre de requêtes. En particulier, on s’assurera d’avoir un code fonctionnel avant de scraper l’intégralité du site, pour éviter les répétitions.
|
||||||
|
|
||||||
|
## projet
|
||||||
|
<div style="text-align: center;">
|
||||||
|
<object
|
||||||
|
data="/millesima-ai-engine/projet.pdf"
|
||||||
|
type="application/pdf"
|
||||||
|
width="100%"
|
||||||
|
height="1000px"
|
||||||
|
>
|
||||||
|
<p>Votre navigateur ne peut pas afficher ce PDF.
|
||||||
|
<a href="/millesima-ai-engine/projet.pdf">Cliquez ici pour le télécharger.</a></p>
|
||||||
|
</object>
|
||||||
|
</div>
|
||||||
Binary file not shown.
31
docs/scraper.md
Normal file
31
docs/scraper.md
Normal file
@@ -0,0 +1,31 @@
|
|||||||
|
# Scraper
|
||||||
|
|
||||||
|
## Sommaire
|
||||||
|
[TOC]
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## Classe `Scraper`
|
||||||
|
::: scraper.Scraper
|
||||||
|
options:
|
||||||
|
members:
|
||||||
|
- __init__
|
||||||
|
- getvins
|
||||||
|
- getjsondata
|
||||||
|
- getresponse
|
||||||
|
- getsoup
|
||||||
|
heading_level: 4
|
||||||
|
|
||||||
|
## Classe `_ScraperData`
|
||||||
|
::: scraper._ScraperData
|
||||||
|
options:
|
||||||
|
members:
|
||||||
|
- __init__
|
||||||
|
- getdata
|
||||||
|
- appellation
|
||||||
|
- parker
|
||||||
|
- robinson
|
||||||
|
- suckling
|
||||||
|
- prix
|
||||||
|
- informations
|
||||||
|
heading_level: 4
|
||||||
88
main.py
88
main.py
@@ -1,88 +0,0 @@
|
|||||||
import requests
|
|
||||||
from typing import Any, Dict
|
|
||||||
from bs4 import BeautifulSoup
|
|
||||||
import json
|
|
||||||
|
|
||||||
|
|
||||||
class Scraper:
|
|
||||||
"""
|
|
||||||
Scraper est une classe qui permet de gerer
|
|
||||||
de façon dynamique des requetes uniquement
|
|
||||||
sur le serveur https de Millesina
|
|
||||||
"""
|
|
||||||
|
|
||||||
def __init__(self):
|
|
||||||
"""
|
|
||||||
Initialise la session de scraping et récupère la page d'accueil.
|
|
||||||
"""
|
|
||||||
# Très utile pour éviter de renvoyer toujours les mêmes handshake
|
|
||||||
# TCP et d'avoir toujours une connexion constante avec le server
|
|
||||||
self._session: requests.Session = requests.Session()
|
|
||||||
self._url: str = "https://www.millesima.fr/"
|
|
||||||
self._soup = self.getsoup()
|
|
||||||
|
|
||||||
def _request(
|
|
||||||
self, subdir: str, use_cache: bool = True
|
|
||||||
) -> requests.Response | requests.HTTPError:
|
|
||||||
"""
|
|
||||||
Effectue une requête GET sur le serveur Millesima.
|
|
||||||
:param subdir: Le sous-répertoire ou chemin de l'URL (ex: "/vins").
|
|
||||||
:param use_cache: Si True, retourne la réponse précédente si l'URL est
|
|
||||||
identique.
|
|
||||||
:return: requests.Response: L'objet réponse de la requête.
|
|
||||||
:rtype: requests.HTTPError: Si le serveur renvoie un code d'erreur
|
|
||||||
(4xx, 5xx).
|
|
||||||
"""
|
|
||||||
|
|
||||||
target_url: str = f"{self._url}{subdir.lstrip('/')}"
|
|
||||||
# Éviter un max possible de faire des requetes au servers même
|
|
||||||
# en ayant un tunnel tcp avec le paramètre `use_cache` que si
|
|
||||||
# activer, va comparer l'url avec l'url précédant
|
|
||||||
if use_cache and hasattr(self, "_response") \
|
|
||||||
and self._response is not None:
|
|
||||||
if self._response.url == target_url:
|
|
||||||
return self._response
|
|
||||||
|
|
||||||
self._response: requests.Response = self._session.get(
|
|
||||||
target_url, timeout=10)
|
|
||||||
self._response.raise_for_status()
|
|
||||||
|
|
||||||
return self._response
|
|
||||||
|
|
||||||
def getsoup(self, subdir: str = "/") -> BeautifulSoup:
|
|
||||||
"""
|
|
||||||
Récupère le contenu HTML d'une page et le transforme en objet
|
|
||||||
BeautifulSoup.
|
|
||||||
|
|
||||||
:param subdir: Le chemin de la page. Si None, retourne la soupe
|
|
||||||
actuelle.
|
|
||||||
:return: BeautifulSoup: L'objet parsé pour extraction de données.
|
|
||||||
:rtype: BeautifulSoup
|
|
||||||
"""
|
|
||||||
if subdir is not None:
|
|
||||||
self._request(subdir)
|
|
||||||
self._soup = BeautifulSoup(self._response.text, "html.parser")
|
|
||||||
return self._soup
|
|
||||||
|
|
||||||
def get_json_data(self) -> Dict[str, Any]:
|
|
||||||
"""
|
|
||||||
Extrait les données JSON contenues dans la balise __NEXT_DATA__ du
|
|
||||||
site.
|
|
||||||
Beaucoup de sites modernes (Next.js) stockent leur état initial dans
|
|
||||||
une balise <script> pour l'hydratation côté client.
|
|
||||||
|
|
||||||
:return Dict[str, Any]: Un dictionnaire contenant les props de la page,
|
|
||||||
ou un dictionnaire vide en cas d'erreur ou
|
|
||||||
d'absence.
|
|
||||||
"""
|
|
||||||
script = self._soup.find("script", id="__NEXT_DATA__")
|
|
||||||
if script and script.string:
|
|
||||||
try:
|
|
||||||
data: dict[str, Any] = json.loads(script.string)
|
|
||||||
for element in ['props', 'pageProps', 'initialReduxState',
|
|
||||||
'product', 'content']:
|
|
||||||
data.get(element)
|
|
||||||
return data
|
|
||||||
except json.decoder.JSONDecodeError:
|
|
||||||
pass
|
|
||||||
return {}
|
|
||||||
20
mkdocs.yml
Normal file
20
mkdocs.yml
Normal file
@@ -0,0 +1,20 @@
|
|||||||
|
site_name: "Projet Millesima S6"
|
||||||
|
site_url: "https://github.guezoloic.com/millesima-ai-engine/"
|
||||||
|
|
||||||
|
theme:
|
||||||
|
name: "material"
|
||||||
|
|
||||||
|
plugins:
|
||||||
|
- search
|
||||||
|
- mkdocstrings
|
||||||
|
|
||||||
|
extra:
|
||||||
|
generator: false
|
||||||
|
|
||||||
|
copyright: "Loïc GUEZO & Chahrazad DAHMANI – UPEC S6 – 2026"
|
||||||
|
|
||||||
|
markdown_extensions:
|
||||||
|
- admonition
|
||||||
|
- pymdownx.details
|
||||||
|
- pymdownx.superfences
|
||||||
|
- pymdownx.tabbed
|
||||||
21
pyproject.toml
Normal file
21
pyproject.toml
Normal file
@@ -0,0 +1,21 @@
|
|||||||
|
[project]
|
||||||
|
name = "projet-millesima-s6"
|
||||||
|
version = "0.1.0"
|
||||||
|
dependencies = [
|
||||||
|
"requests==2.32.5",
|
||||||
|
"beautifulsoup4==4.14.3",
|
||||||
|
"pandas==2.3.3",
|
||||||
|
"tqdm==4.67.3",
|
||||||
|
]
|
||||||
|
|
||||||
|
[tool.pytest.ini_options]
|
||||||
|
pythonpath = "src"
|
||||||
|
testpaths = ["tests"]
|
||||||
|
|
||||||
|
[project.optional-dependencies]
|
||||||
|
test = ["pytest==8.4.2", "requests-mock==1.12.1", "flake8==7.3.0"]
|
||||||
|
doc = ["mkdocs<2.0.0", "mkdocs-material==9.6.23", "mkdocstrings[python]"]
|
||||||
|
|
||||||
|
[build-system]
|
||||||
|
requires = ["setuptools", "wheel"]
|
||||||
|
build-backend = "setuptools.build_meta"
|
||||||
@@ -1,2 +0,0 @@
|
|||||||
requests>=2.32.5
|
|
||||||
beautifulsoup4>=4.14.3
|
|
||||||
113
src/cleaning.py
Executable file
113
src/cleaning.py
Executable file
@@ -0,0 +1,113 @@
|
|||||||
|
#!/usr/bin/env python3
|
||||||
|
|
||||||
|
from os import getcwd
|
||||||
|
from os.path import normpath, join
|
||||||
|
from typing import cast
|
||||||
|
from pandas import DataFrame, read_csv, to_numeric, get_dummies
|
||||||
|
from sys import argv
|
||||||
|
|
||||||
|
|
||||||
|
def path_filename(filename: str) -> str:
|
||||||
|
return normpath(join(getcwd(), filename))
|
||||||
|
|
||||||
|
|
||||||
|
class Cleaning:
|
||||||
|
def __init__(self, filename) -> None:
|
||||||
|
self._vins: DataFrame = read_csv(filename)
|
||||||
|
# créer la liste de tout les scores
|
||||||
|
self.SCORE_COLS: list[str] = [
|
||||||
|
c for c in self._vins.columns if c not in ["Appellation", "Prix"]
|
||||||
|
]
|
||||||
|
# transforme tout les colonnes score en numérique
|
||||||
|
for col in self.SCORE_COLS:
|
||||||
|
self._vins[col] = to_numeric(self._vins[col], errors="coerce")
|
||||||
|
|
||||||
|
def getVins(self) -> DataFrame:
|
||||||
|
return self._vins.copy(deep=True)
|
||||||
|
|
||||||
|
def __str__(self) -> str:
|
||||||
|
"""
|
||||||
|
Affiche un résumé du DataFrame
|
||||||
|
- la taille
|
||||||
|
- types des colonnes
|
||||||
|
- valeurs manquantes
|
||||||
|
- statistiques numériques
|
||||||
|
"""
|
||||||
|
return (
|
||||||
|
f"Shape : {self._vins.shape[0]} lignes x {self._vins.shape[1]} colonnes\n\n"
|
||||||
|
f"Types des colonnes :\n{self._vins.dtypes}\n\n"
|
||||||
|
f"Valeurs manquantes :\n{self._vins.isna().sum()}\n\n"
|
||||||
|
f"Statistiques numériques :\n{self._vins.describe().round(2)}\n\n"
|
||||||
|
)
|
||||||
|
|
||||||
|
def drop_empty_appellation(self) -> "Cleaning":
|
||||||
|
self._vins = self._vins.dropna(subset=["Appellation"])
|
||||||
|
return self
|
||||||
|
|
||||||
|
def _mean_score(self, col: str) -> DataFrame:
|
||||||
|
"""
|
||||||
|
Calcule la moyenne d'une colonne de score par appellation.
|
||||||
|
- Convertit les valeurs en numériques, en remplaçant les non-convertibles par NaN
|
||||||
|
- Calcule la moyenne par appellation
|
||||||
|
- Remplace les NaN résultants par 0
|
||||||
|
|
||||||
|
"""
|
||||||
|
means = self._vins.groupby("Appellation", as_index=False)[col].mean()
|
||||||
|
means = means.rename(
|
||||||
|
columns={col: f"mean_{col}"}
|
||||||
|
) # pyright: ignore[reportCallIssue]
|
||||||
|
return cast(DataFrame, means.fillna(0))
|
||||||
|
|
||||||
|
def _mean_robert(self) -> DataFrame:
|
||||||
|
return self._mean_score("Robert")
|
||||||
|
|
||||||
|
def _mean_robinson(self) -> DataFrame:
|
||||||
|
return self._mean_score("Robinson")
|
||||||
|
|
||||||
|
def _mean_suckling(self) -> DataFrame:
|
||||||
|
return self._mean_score("Suckling")
|
||||||
|
|
||||||
|
def fill_missing_scores(self) -> "Cleaning":
|
||||||
|
"""
|
||||||
|
Remplacer les notes manquantes par la moyenne
|
||||||
|
des vins de la même appellation.
|
||||||
|
"""
|
||||||
|
for element in self.SCORE_COLS:
|
||||||
|
means = self._mean_score(element)
|
||||||
|
self._vins = self._vins.merge(means, on="Appellation", how="left")
|
||||||
|
|
||||||
|
mean_col = f"mean_{element}"
|
||||||
|
self._vins[element] = self._vins[element].fillna(self._vins[mean_col])
|
||||||
|
|
||||||
|
self._vins = self._vins.drop(columns=["mean_" + element])
|
||||||
|
return self
|
||||||
|
|
||||||
|
def encode_appellation(self, column: str = "Appellation") -> "Cleaning":
|
||||||
|
"""
|
||||||
|
Remplace la colonne 'Appellation' par des colonnes indicatrices
|
||||||
|
"""
|
||||||
|
appellations = self._vins[column].astype(str).str.strip()
|
||||||
|
appellation_dummies = get_dummies(appellations, prefix="App")
|
||||||
|
self._vins = self._vins.drop(columns=[column])
|
||||||
|
self._vins = self._vins.join(appellation_dummies)
|
||||||
|
return self
|
||||||
|
|
||||||
|
|
||||||
|
def main() -> None:
|
||||||
|
if len(argv) != 2:
|
||||||
|
raise ValueError(f"Usage: {argv[0]} <filename.csv>")
|
||||||
|
|
||||||
|
filename = argv[1]
|
||||||
|
cleaning: Cleaning = Cleaning(filename)
|
||||||
|
cleaning.drop_empty_appellation() \
|
||||||
|
.fill_missing_scores() \
|
||||||
|
.encode_appellation() \
|
||||||
|
.getVins() \
|
||||||
|
.to_csv("clean.csv", index=False)
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
try:
|
||||||
|
main()
|
||||||
|
except Exception as e:
|
||||||
|
print(f"ERREUR: {e}")
|
||||||
507
src/scraper.py
Executable file
507
src/scraper.py
Executable file
@@ -0,0 +1,507 @@
|
|||||||
|
#!/usr/bin/env python3
|
||||||
|
|
||||||
|
from collections import OrderedDict
|
||||||
|
from io import SEEK_END, SEEK_SET, BufferedWriter, TextIOWrapper
|
||||||
|
from json import JSONDecodeError, loads
|
||||||
|
from os import makedirs
|
||||||
|
from os.path import dirname, exists, join, normpath, realpath
|
||||||
|
from pickle import UnpicklingError, dump, load
|
||||||
|
from sys import argv
|
||||||
|
from tqdm.std import tqdm
|
||||||
|
from typing import Any, Callable, Literal, TypeVar, cast
|
||||||
|
from bs4 import BeautifulSoup, Tag
|
||||||
|
from requests import HTTPError, Response, Session
|
||||||
|
|
||||||
|
_dir: str = dirname(realpath(__name__))
|
||||||
|
|
||||||
|
T = TypeVar("T")
|
||||||
|
|
||||||
|
|
||||||
|
def _getcache(mode: Literal["rb", "wb"], fn: Callable[[Any], T]) -> T | None:
|
||||||
|
"""_summary_
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
_type_: _description_
|
||||||
|
"""
|
||||||
|
cache_dirname = normpath(join(_dir, ".cache"))
|
||||||
|
save_path = normpath(join(cache_dirname, "save"))
|
||||||
|
|
||||||
|
if not exists(cache_dirname):
|
||||||
|
makedirs(cache_dirname)
|
||||||
|
|
||||||
|
try:
|
||||||
|
with open(save_path, mode) as f:
|
||||||
|
return fn(f)
|
||||||
|
except (FileNotFoundError, EOFError, UnpicklingError):
|
||||||
|
return None
|
||||||
|
|
||||||
|
|
||||||
|
def savestate(data: tuple[int, set[str]]) -> None:
|
||||||
|
def save(f: BufferedWriter) -> None:
|
||||||
|
_ = f.seek(0)
|
||||||
|
_ = f.truncate()
|
||||||
|
dump(data, f)
|
||||||
|
f.flush()
|
||||||
|
|
||||||
|
_getcache("wb", save)
|
||||||
|
|
||||||
|
|
||||||
|
def loadstate() -> tuple[int, set[str]] | None:
|
||||||
|
return _getcache("rb", lambda f: load(f))
|
||||||
|
|
||||||
|
|
||||||
|
class _ScraperData:
|
||||||
|
"""
|
||||||
|
Conteneur de données spécialisé pour extraire les informations des dictionnaires JSON.
|
||||||
|
|
||||||
|
Cette classe agit comme une interface simplifiée au-dessus du dictionnaire brut
|
||||||
|
renvoyé par la balise __NEXT_DATA__ du site Millesima.
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self, data: dict[str, object]) -> None:
|
||||||
|
"""
|
||||||
|
Initialise le conteneur avec un dictionnaire de données.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
data (dict[str, object]): Le dictionnaire JSON brut extrait de la page.
|
||||||
|
"""
|
||||||
|
self._data: dict[str, object] = data
|
||||||
|
|
||||||
|
def _getcontent(self) -> dict[str, object] | None:
|
||||||
|
"""
|
||||||
|
Navigue dans l'arborescence Redux pour atteindre le contenu du produit.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
dict[str, object] | None: Le dictionnaire du produit ou None si la structure diffère.
|
||||||
|
"""
|
||||||
|
current_data: dict[str, object] = self._data
|
||||||
|
for key in ["initialReduxState", "product", "content"]:
|
||||||
|
new_data: object | None = current_data.get(key)
|
||||||
|
if new_data is None:
|
||||||
|
return None
|
||||||
|
current_data: dict[str, object] = cast(dict[str, object], new_data)
|
||||||
|
|
||||||
|
return current_data
|
||||||
|
|
||||||
|
def _getattributes(self) -> dict[str, object] | None:
|
||||||
|
"""
|
||||||
|
Extrait les attributs techniques (notes, appellations, etc.) du produit.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
dict[str, object] | None: Les attributs du vin ou None.
|
||||||
|
"""
|
||||||
|
current_data: object = self._getcontent()
|
||||||
|
if current_data is None:
|
||||||
|
return None
|
||||||
|
return cast(dict[str, object], current_data.get("attributes"))
|
||||||
|
|
||||||
|
def prix(self) -> float | None:
|
||||||
|
"""
|
||||||
|
Calcule le prix unitaire d'une bouteille (standardisée à 75cl).
|
||||||
|
|
||||||
|
Le site vend souvent par caisses (6, 12 bouteilles) ou formats (Magnum).
|
||||||
|
Cette méthode normalise le prix pour obtenir celui d'une seule unité.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
float | None: Le prix calculé arrondi à 2 décimales, ou None.
|
||||||
|
"""
|
||||||
|
|
||||||
|
content = self._getcontent()
|
||||||
|
if content is None:
|
||||||
|
return None
|
||||||
|
|
||||||
|
items = content.get("items")
|
||||||
|
|
||||||
|
# Vérifie que items existe et n'est pas vide
|
||||||
|
if not isinstance(items, list) or len(items) == 0:
|
||||||
|
return None
|
||||||
|
|
||||||
|
prix_calcule: float | None = None
|
||||||
|
|
||||||
|
for item in items:
|
||||||
|
if not isinstance(item, dict):
|
||||||
|
continue
|
||||||
|
|
||||||
|
p = item.get("offerPrice")
|
||||||
|
attrs = item.get("attributes", {})
|
||||||
|
|
||||||
|
nbunit = attrs.get("nbunit", {}).get("value")
|
||||||
|
equivbtl = attrs.get("equivbtl", {}).get("value")
|
||||||
|
|
||||||
|
if not isinstance(p, (int, float)) or not nbunit or not equivbtl:
|
||||||
|
continue
|
||||||
|
|
||||||
|
nb = float(nbunit)
|
||||||
|
eq = float(equivbtl)
|
||||||
|
|
||||||
|
if nb <= 0 or eq <= 0:
|
||||||
|
continue
|
||||||
|
|
||||||
|
if nb == 1 and eq == 1:
|
||||||
|
return float(p)
|
||||||
|
|
||||||
|
prix_calcule = round(float(p) / (nb * eq), 2)
|
||||||
|
|
||||||
|
return prix_calcule
|
||||||
|
|
||||||
|
def appellation(self) -> str | None:
|
||||||
|
"""
|
||||||
|
Extrait le nom de l'appellation du vin.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
str | None: Le nom (ex: 'Pauillac') ou None.
|
||||||
|
"""
|
||||||
|
attrs: dict[str, object] | None = self._getattributes()
|
||||||
|
if attrs is not None:
|
||||||
|
app_dict: object | None = attrs.get("appellation")
|
||||||
|
if isinstance(app_dict, dict):
|
||||||
|
return cast(str, app_dict.get("value"))
|
||||||
|
return None
|
||||||
|
|
||||||
|
def _getcritiques(self, name: str) -> str | None:
|
||||||
|
"""
|
||||||
|
Méthode générique pour parser les notes des critiques (Parker, Suckling, etc.).
|
||||||
|
|
||||||
|
Gère les notes simples ("95") et les plages de notes ("95-97") en faisant la moyenne.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
name (str): La clé de l'attribut dans le JSON (ex: 'note_rp').
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
str | None: La note formatée en chaîne de caractères ou None.
|
||||||
|
"""
|
||||||
|
|
||||||
|
current_value: dict[str, object] | None = self._getattributes()
|
||||||
|
if current_value is not None:
|
||||||
|
app_dict: dict[str, object] = cast(
|
||||||
|
dict[str, object], current_value.get(name)
|
||||||
|
)
|
||||||
|
if not app_dict:
|
||||||
|
return None
|
||||||
|
|
||||||
|
val = cast(str, app_dict.get("value")).rstrip("+").split("-")
|
||||||
|
if len(val) > 1 and val[1] != "":
|
||||||
|
val[0] = str(round((float(val[0]) + float(val[1])) / 2, 1))
|
||||||
|
|
||||||
|
return val[0]
|
||||||
|
return None
|
||||||
|
|
||||||
|
def parker(self) -> str | None:
|
||||||
|
"""Note Robert Parker."""
|
||||||
|
return self._getcritiques("note_rp")
|
||||||
|
|
||||||
|
def robinson(self) -> str | None:
|
||||||
|
"""Note Jancis Robinson."""
|
||||||
|
return self._getcritiques("note_jr")
|
||||||
|
|
||||||
|
def suckling(self) -> str | None:
|
||||||
|
"""Note James Suckling."""
|
||||||
|
return self._getcritiques("note_js")
|
||||||
|
|
||||||
|
def getdata(self) -> dict[str, object]:
|
||||||
|
"""Retourne le dictionnaire de données complet."""
|
||||||
|
return self._data
|
||||||
|
|
||||||
|
def informations(self) -> str:
|
||||||
|
"""
|
||||||
|
Agrège les données clés pour l'export CSV.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
str: Ligne formatée : "Appellation,Parker,Robinson,Suckling,Prix".
|
||||||
|
"""
|
||||||
|
|
||||||
|
appellation = self.appellation()
|
||||||
|
parker = self.parker()
|
||||||
|
robinson = self.robinson()
|
||||||
|
suckling = self.suckling()
|
||||||
|
prix = self.prix()
|
||||||
|
prix = self.prix()
|
||||||
|
|
||||||
|
return f"{appellation},{parker},{robinson},{suckling},{prix}"
|
||||||
|
|
||||||
|
|
||||||
|
class Scraper:
|
||||||
|
"""
|
||||||
|
Client HTTP optimisé pour le scraping de millesima.fr.
|
||||||
|
|
||||||
|
Gère la session persistante, les headers de navigation et un cache double
|
||||||
|
pour optimiser les performances et la discrétion.
|
||||||
|
"""
|
||||||
|
|
||||||
|
def __init__(self) -> None:
|
||||||
|
"""
|
||||||
|
Initialise l'infrastructure de navigation:
|
||||||
|
|
||||||
|
- créer une session pour éviter de faire un handshake pour chaque requête
|
||||||
|
- ajout d'un header pour éviter le blocage de l'accès au site
|
||||||
|
- ajout d'un système de cache
|
||||||
|
"""
|
||||||
|
self._url: str = "https://www.millesima.fr/"
|
||||||
|
# Très utile pour éviter de renvoyer toujours les mêmes handshake
|
||||||
|
# TCP et d'avoir toujours une connexion constante avec le server
|
||||||
|
self._session: Session = Session()
|
||||||
|
# Crée une "fausse carte d'identité" pour éviter que le site nous
|
||||||
|
# bloque car on serait des robots
|
||||||
|
self._session.headers.update(
|
||||||
|
{
|
||||||
|
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) \
|
||||||
|
AppleWebKit/537.36 (KHTML, like Gecko) \
|
||||||
|
Chrome/122.0.0.0 Safari/537.36",
|
||||||
|
"Accept-Language": "fr-FR,fr;q=0.9,en;q=0.8",
|
||||||
|
}
|
||||||
|
)
|
||||||
|
# Système de cache pour éviter de solliciter le serveur inutilement
|
||||||
|
# utilise pour _request
|
||||||
|
self._latest_request: tuple[(str, Response)] | None = None
|
||||||
|
# utilise pour getsoup
|
||||||
|
self._latest_soups: OrderedDict[str, BeautifulSoup] = OrderedDict[
|
||||||
|
str, BeautifulSoup
|
||||||
|
]()
|
||||||
|
|
||||||
|
def _request(self, subdir: str) -> Response:
|
||||||
|
"""
|
||||||
|
Effectue une requête GET sur le serveur Millesima.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
subdir (str): Le sous-répertoire ou chemin de l'URL (ex: "/vins").
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Response: L'objet réponse de la requête.
|
||||||
|
|
||||||
|
Raises:
|
||||||
|
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
|
||||||
|
"""
|
||||||
|
target_url: str = self._url + subdir.lstrip("/")
|
||||||
|
# envoyer une requête GET sur la page si erreur, renvoie un raise
|
||||||
|
response: Response = self._session.get(url=target_url, timeout=30)
|
||||||
|
response.raise_for_status()
|
||||||
|
return response
|
||||||
|
|
||||||
|
def getresponse(self, subdir: str = "", use_cache: bool = True) -> Response:
|
||||||
|
"""
|
||||||
|
Récupère la réponse d'une page, en utilisant le cache si possible.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
subdir (str, optional): Le chemin de la page.
|
||||||
|
use_cache (bool, optional): Utilise la donnée deja sauvegarder ou
|
||||||
|
écrase la donnée utilisé avec la nouvelle
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
Response: L'objet réponse (cache ou nouvelle requête).
|
||||||
|
|
||||||
|
Raises:
|
||||||
|
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
|
||||||
|
"""
|
||||||
|
|
||||||
|
# si dans le cache, latest_request existe
|
||||||
|
if use_cache and self._latest_request is not None:
|
||||||
|
rq_subdir, rq_response = self._latest_request
|
||||||
|
|
||||||
|
# si c'est la meme requete et que use_cache est true,
|
||||||
|
# on renvoie celle enregistrer
|
||||||
|
if subdir == rq_subdir:
|
||||||
|
return rq_response
|
||||||
|
|
||||||
|
request: Response = self._request(subdir)
|
||||||
|
# on recrée la structure pour le systeme de cache si activer
|
||||||
|
if use_cache:
|
||||||
|
self._latest_request = (subdir, request)
|
||||||
|
|
||||||
|
return request
|
||||||
|
|
||||||
|
def getsoup(self, subdir: str, use_cache: bool = True) -> BeautifulSoup:
|
||||||
|
"""
|
||||||
|
Récupère le contenu HTML d'une page et le transforme en objet BeautifulSoup.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
subdir (str, optional): Le chemin de la page.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
BeautifulSoup: L'objet parsé pour extraction de données.
|
||||||
|
|
||||||
|
Raises:
|
||||||
|
HTTPError: Si le serveur renvoie un code d'erreur (4xx, 5xx).
|
||||||
|
"""
|
||||||
|
|
||||||
|
if use_cache and subdir in self._latest_soups:
|
||||||
|
return self._latest_soups[subdir]
|
||||||
|
|
||||||
|
markup: str = self.getresponse(subdir).text
|
||||||
|
soup: BeautifulSoup = BeautifulSoup(markup, features="html.parser")
|
||||||
|
|
||||||
|
if use_cache:
|
||||||
|
self._latest_soups[subdir] = soup
|
||||||
|
|
||||||
|
if len(self._latest_soups) > 10:
|
||||||
|
_ = self._latest_soups.popitem(last=False)
|
||||||
|
|
||||||
|
return soup
|
||||||
|
|
||||||
|
def getjsondata(self, subdir: str, id: str = "__NEXT_DATA__") -> _ScraperData:
|
||||||
|
"""
|
||||||
|
Extrait les données JSON contenues dans la balise __NEXT_DATA__ du site.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
subdir (str): Le chemin de la page.
|
||||||
|
id (str, optional): L'identifiant de la balise script.
|
||||||
|
|
||||||
|
Raises:
|
||||||
|
HTTPError: Erreur renvoyée par le serveur (4xx, 5xx).
|
||||||
|
JSONDecodeError: Si le contenu de la balise n'est pas un JSON valide.
|
||||||
|
ValueError: Si les clés 'props' ou 'pageProps' sont absentes.
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
_ScraperData: Instance contenant les données extraites.
|
||||||
|
"""
|
||||||
|
|
||||||
|
soup: BeautifulSoup = self.getsoup(subdir)
|
||||||
|
script: Tag | None = soup.find("script", id=id)
|
||||||
|
|
||||||
|
if script is None or not script.string:
|
||||||
|
raise ValueError(f"le script id={id} est introuvable")
|
||||||
|
|
||||||
|
current_data: object = cast(object, loads(script.string))
|
||||||
|
|
||||||
|
for key in ["props", "pageProps"]:
|
||||||
|
if isinstance(current_data, dict) and key in current_data:
|
||||||
|
current_data = cast(object, current_data[key])
|
||||||
|
continue
|
||||||
|
raise ValueError(f"Clé manquante dans le JSON : {key}")
|
||||||
|
|
||||||
|
return _ScraperData(cast(dict[str, object], current_data))
|
||||||
|
|
||||||
|
def _geturlproductslist(self, subdir: str) -> list[dict[str, Any]] | None:
|
||||||
|
"""
|
||||||
|
Récupère la liste des produits d'une page de catégorie.
|
||||||
|
"""
|
||||||
|
try:
|
||||||
|
data: dict[str, object] = self.getjsondata(subdir).getdata()
|
||||||
|
|
||||||
|
products: list[dict[str, Any]] = cast(
|
||||||
|
list[dict[str, Any]], data.get("products")
|
||||||
|
)
|
||||||
|
|
||||||
|
return products
|
||||||
|
|
||||||
|
except (JSONDecodeError, HTTPError):
|
||||||
|
return None
|
||||||
|
|
||||||
|
def _writevins(self, cache: set[str], product: dict[str, Any], f: Any) -> None:
|
||||||
|
"""_summary_
|
||||||
|
|
||||||
|
Args:
|
||||||
|
cache (set[str]): _description_
|
||||||
|
product (dict): _description_
|
||||||
|
f (Any): _description_
|
||||||
|
"""
|
||||||
|
if isinstance(product, dict):
|
||||||
|
link: Any | None = product.get("seoKeyword")
|
||||||
|
if link and link not in cache:
|
||||||
|
try:
|
||||||
|
infos = self.getjsondata(link).informations()
|
||||||
|
_ = f.write(infos + "\n")
|
||||||
|
cache.add(link)
|
||||||
|
except (JSONDecodeError, HTTPError) as e:
|
||||||
|
print(f"Erreur sur le produit {link}: {e}")
|
||||||
|
|
||||||
|
def _initstate(self, reset: bool) -> tuple[int, set[str]]:
|
||||||
|
"""
|
||||||
|
appelle la fonction pour load le cache, si il existe
|
||||||
|
pas, il utilise les variables de base sinon il override
|
||||||
|
toute les variables pour continuer et pas recommencer le
|
||||||
|
processus en entier.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
reset (bool): pouvoir le reset ou pas
|
||||||
|
|
||||||
|
Returns:
|
||||||
|
tuple[int, set[str]]: le contenu de la page et du cache
|
||||||
|
"""
|
||||||
|
if not reset:
|
||||||
|
#
|
||||||
|
serializable: tuple[int, set[str]] | None = loadstate()
|
||||||
|
if isinstance(serializable, tuple):
|
||||||
|
return serializable
|
||||||
|
return 1, set()
|
||||||
|
|
||||||
|
def _ensuretitle(self, f: TextIOWrapper, title: str) -> None:
|
||||||
|
"""
|
||||||
|
check si le titre est bien présent au début du buffer
|
||||||
|
sinon il l'ecrit, petit bug potentiel, a+ ecrit tout le
|
||||||
|
temps a la fin du buffer, si on a ecrit des choses avant
|
||||||
|
le titre sera apres ces données mais on part du principe
|
||||||
|
que personne va toucher le fichier.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
f (TextIOWrapper): buffer stream fichier
|
||||||
|
title (str): titre du csv
|
||||||
|
"""
|
||||||
|
_ = f.seek(0, SEEK_SET)
|
||||||
|
if not (f.read(len(title)) == title):
|
||||||
|
_ = f.write(title)
|
||||||
|
else:
|
||||||
|
_ = f.seek(0, SEEK_END)
|
||||||
|
|
||||||
|
def getvins(self, subdir: str, filename: str, reset: bool = False) -> None:
|
||||||
|
"""
|
||||||
|
Scrape toutes les pages d'une catégorie et sauvegarde en CSV.
|
||||||
|
|
||||||
|
Args:
|
||||||
|
subdir (str): La catégorie (ex: '/vins-rouges').
|
||||||
|
filename (str): Nom du fichier de sortie (ex: 'vins.csv').
|
||||||
|
reset (bool): (Optionnel) pour réinitialiser le processus.
|
||||||
|
"""
|
||||||
|
# mode d'écriture fichier
|
||||||
|
mode: Literal["w", "a+"] = "w" if reset else "a+"
|
||||||
|
# titre
|
||||||
|
title: str = "Appellation,Robert,Robinson,Suckling,Prix\n"
|
||||||
|
# page: page où commence le scraper
|
||||||
|
# cache: tout les pages déjà parcourir
|
||||||
|
page, cache = self._initstate(reset)
|
||||||
|
|
||||||
|
try:
|
||||||
|
with open(filename, mode) as f:
|
||||||
|
self._ensuretitle(f, title)
|
||||||
|
while True:
|
||||||
|
products_list: list[dict[str, Any]] | None = (
|
||||||
|
self._geturlproductslist(f"{subdir}?page={page}")
|
||||||
|
)
|
||||||
|
if not products_list:
|
||||||
|
break
|
||||||
|
|
||||||
|
pbar: tqdm[dict[str, Any]] = tqdm(
|
||||||
|
products_list, bar_format="{l_bar} {bar:20} {r_bar}"
|
||||||
|
)
|
||||||
|
for product in pbar:
|
||||||
|
keyword: str = cast(
|
||||||
|
str, product.get("seoKeyword", "Inconnu")[:40]
|
||||||
|
)
|
||||||
|
pbar.set_description(
|
||||||
|
f"Page: {page:<3} | Product: {keyword:<40}"
|
||||||
|
)
|
||||||
|
self._writevins(cache, product, f)
|
||||||
|
page += 1
|
||||||
|
# va créer un fichier au début et l'override
|
||||||
|
# tout les 5 pages au cas où SIGHUP ou autre
|
||||||
|
if page % 5 == 0 and not reset:
|
||||||
|
savestate((page, cache))
|
||||||
|
except (Exception, HTTPError, KeyboardInterrupt, JSONDecodeError):
|
||||||
|
if not reset:
|
||||||
|
savestate((page, cache))
|
||||||
|
|
||||||
|
|
||||||
|
def main() -> None:
|
||||||
|
if len(argv) != 3:
|
||||||
|
raise ValueError(f"{argv[0]} <filename> <sous-url>")
|
||||||
|
filename = argv[1]
|
||||||
|
suburl = argv[2]
|
||||||
|
|
||||||
|
scraper: Scraper = Scraper()
|
||||||
|
scraper.getvins(suburl, filename)
|
||||||
|
|
||||||
|
|
||||||
|
if __name__ == "__main__":
|
||||||
|
try:
|
||||||
|
main()
|
||||||
|
except Exception as e:
|
||||||
|
print(f"ERREUR: {e}")
|
||||||
@@ -1,6 +0,0 @@
|
|||||||
from main import *
|
|
||||||
|
|
||||||
scraper = Scraper()
|
|
||||||
|
|
||||||
def test_soup():
|
|
||||||
assert scraper.getsoup().find('h1').text[3:12] == "MILLESIMA"
|
|
||||||
67
tests/test_cleaning.py
Executable file
67
tests/test_cleaning.py
Executable file
@@ -0,0 +1,67 @@
|
|||||||
|
import pytest
|
||||||
|
from unittest.mock import patch, mock_open
|
||||||
|
from cleaning import Cleaning
|
||||||
|
|
||||||
|
|
||||||
|
@pytest.fixture
|
||||||
|
def cleaning_raw() -> Cleaning:
|
||||||
|
"""
|
||||||
|
"Appellation": ["Pauillac", "Pauillac ", "Margaux", None , "Pomerol", "Pomerol"],
|
||||||
|
"Robert": ["95" , None , "bad" , 90 , None , None ],
|
||||||
|
"Robinson": [None , "93" , 18 , None , None , None ],
|
||||||
|
"Suckling": [96 , None , None , None , 91 , None ],
|
||||||
|
"Prix": ["10.0" , "11.0" , "20.0" , "30.0", "40.0" , "50.0" ],
|
||||||
|
"""
|
||||||
|
csv_content = """Appellation,Robert,Robinson,Suckling,Prix
|
||||||
|
Pauillac,95,,96,10.0
|
||||||
|
Pauillac ,,93,,11.0
|
||||||
|
Margaux,bad,18,,20.0
|
||||||
|
,90,,,30.0
|
||||||
|
Pomerol,,,91,40.0
|
||||||
|
Pomerol,,,,50.0
|
||||||
|
"""
|
||||||
|
m = mock_open(read_data=csv_content)
|
||||||
|
with patch("builtins.open", m):
|
||||||
|
return Cleaning("donnee.csv")
|
||||||
|
|
||||||
|
|
||||||
|
def test_drop_empty_appellation(cleaning_raw: Cleaning) -> None:
|
||||||
|
out = cleaning_raw.drop_empty_appellation().getVins()
|
||||||
|
assert out["Appellation"].isna().sum() == 0
|
||||||
|
assert len(out) == 5
|
||||||
|
|
||||||
|
|
||||||
|
def test_mean_score_zero_when_no_scores(cleaning_raw: Cleaning) -> None:
|
||||||
|
out = cleaning_raw.drop_empty_appellation()
|
||||||
|
m = out._mean_score("Robert")
|
||||||
|
assert list(m.columns) == ["Appellation", "mean_Robert"]
|
||||||
|
pomerol_mean = m.loc[m["Appellation"].str.strip() == "Pomerol", "mean_Robert"].iloc[
|
||||||
|
0
|
||||||
|
]
|
||||||
|
assert pomerol_mean == 0
|
||||||
|
|
||||||
|
|
||||||
|
def test_fill_missing_scores(cleaning_raw: Cleaning):
|
||||||
|
cleaning_raw._vins["Appellation"] = cleaning_raw._vins["Appellation"].str.strip()
|
||||||
|
|
||||||
|
cleaning_raw.drop_empty_appellation()
|
||||||
|
filled = cleaning_raw.fill_missing_scores().getVins()
|
||||||
|
for col in cleaning_raw.SCORE_COLS:
|
||||||
|
assert filled[col].isna().sum() == 0
|
||||||
|
|
||||||
|
pauillac_robert = filled[filled["Appellation"] == "Pauillac"]["Robert"]
|
||||||
|
assert (pauillac_robert == 95.0).all()
|
||||||
|
|
||||||
|
|
||||||
|
def test_encode_appellation(cleaning_raw: Cleaning):
|
||||||
|
cleaning_raw._vins["Appellation"] = cleaning_raw._vins["Appellation"].str.strip()
|
||||||
|
|
||||||
|
out = (
|
||||||
|
cleaning_raw.drop_empty_appellation()
|
||||||
|
.fill_missing_scores()
|
||||||
|
.encode_appellation()
|
||||||
|
.getVins()
|
||||||
|
)
|
||||||
|
assert "App_Appellation" not in out.columns
|
||||||
|
assert "App_Pauillac" in out.columns
|
||||||
|
assert int(out.loc[0, "App_Pauillac"]) == 1
|
||||||
314
tests/test_scraper.py
Executable file
314
tests/test_scraper.py
Executable file
@@ -0,0 +1,314 @@
|
|||||||
|
from json import dumps
|
||||||
|
from unittest.mock import patch, mock_open
|
||||||
|
import pytest
|
||||||
|
from requests_mock import Mocker
|
||||||
|
from scraper import Scraper
|
||||||
|
|
||||||
|
|
||||||
|
@pytest.fixture(autouse=True)
|
||||||
|
def mock_site():
|
||||||
|
with Mocker() as m:
|
||||||
|
m.get(
|
||||||
|
"https://www.millesima.fr/",
|
||||||
|
text=f"""
|
||||||
|
<html>
|
||||||
|
<body>
|
||||||
|
<script id="__NEXT_DATA__" type="application/json">
|
||||||
|
{dumps({
|
||||||
|
"props": {
|
||||||
|
"pageProps": {
|
||||||
|
"initialReduxState": {
|
||||||
|
"product": {
|
||||||
|
"content": {
|
||||||
|
"items": [],
|
||||||
|
"attributes": {}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
})}
|
||||||
|
</script>
|
||||||
|
</body>
|
||||||
|
</html>
|
||||||
|
""",
|
||||||
|
)
|
||||||
|
|
||||||
|
m.get(
|
||||||
|
"https://www.millesima.fr/poubelle",
|
||||||
|
text=f"""
|
||||||
|
<html>
|
||||||
|
<body>
|
||||||
|
<h1>POUBELLE</h1>
|
||||||
|
<script id="__NEXT_DATA__" type="application/json">
|
||||||
|
{dumps({
|
||||||
|
"props": {
|
||||||
|
"pageProps": {
|
||||||
|
}
|
||||||
|
}
|
||||||
|
})}
|
||||||
|
</script>
|
||||||
|
</body>
|
||||||
|
</html>
|
||||||
|
""",
|
||||||
|
)
|
||||||
|
|
||||||
|
json_data = {
|
||||||
|
"props": {
|
||||||
|
"pageProps": {
|
||||||
|
"initialReduxState": {
|
||||||
|
"product": {
|
||||||
|
"content": {
|
||||||
|
"_id": "J4131/22-11652",
|
||||||
|
"partnumber": "J4131/22",
|
||||||
|
"productName": "Nino Negri : 5 Stelle Sfursat 2022",
|
||||||
|
"productNameForSearch": "Nino Negri : 5 Stelle Sfursat 2022",
|
||||||
|
"storeId": "11652",
|
||||||
|
"seoKeyword": "nino-negri-5-stelle-sfursat-2022.html",
|
||||||
|
"title": "Nino Negri : 5 Stelle Sfursat 2022",
|
||||||
|
"items": [
|
||||||
|
{
|
||||||
|
"_id": "J4131/22/C/CC/6-11652",
|
||||||
|
"partnumber": "J4131/22/C/CC/6",
|
||||||
|
"taxRate": "H",
|
||||||
|
"listPrice": 842,
|
||||||
|
"offerPrice": 842,
|
||||||
|
"seoKeyword": "vin-de-charazade1867.html",
|
||||||
|
"shortdesc": "Une bouteille du meilleur vin du monde?",
|
||||||
|
"attributes": {
|
||||||
|
"promotion_o_n": {
|
||||||
|
"valueId": "0",
|
||||||
|
"name": "En promotion",
|
||||||
|
"value": "Non",
|
||||||
|
"sequence": 80,
|
||||||
|
"displayable": "False",
|
||||||
|
"type": "CHECKBOX",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
"in_stock": {
|
||||||
|
"valueId": "L",
|
||||||
|
"name": "En stock",
|
||||||
|
"value": "Livrable",
|
||||||
|
"sequence": 65,
|
||||||
|
"displayable": "true",
|
||||||
|
"type": "CHECKBOX",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
"equivbtl": {
|
||||||
|
"valueId": "1",
|
||||||
|
"name": "equivbtl",
|
||||||
|
"value": "1",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
"nbunit": {
|
||||||
|
"valueId": "1",
|
||||||
|
"name": "nbunit",
|
||||||
|
"value": "1",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
},
|
||||||
|
"stock": 12,
|
||||||
|
"availability": "2026-02-05",
|
||||||
|
"isCustomizable": False,
|
||||||
|
"gtin_cond": "",
|
||||||
|
"gtin_unit": "",
|
||||||
|
"stockOrigin": "EUR",
|
||||||
|
"isPrevSale": False,
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"attributes": {
|
||||||
|
"appellation": {
|
||||||
|
"valueId": "433",
|
||||||
|
"name": "Appellation",
|
||||||
|
"value": "Madame-Loïk",
|
||||||
|
"url": "Madame-loik.html",
|
||||||
|
"isSpirit": False,
|
||||||
|
"groupIdentifier": "appellation_433",
|
||||||
|
},
|
||||||
|
"note_rp": {
|
||||||
|
"valueId": "91",
|
||||||
|
"name": "Peter Parker",
|
||||||
|
"value": "91",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
"note_jr": {
|
||||||
|
"valueId": "17+",
|
||||||
|
"name": "J. Robinson",
|
||||||
|
"value": "17+",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
"note_js": {
|
||||||
|
"valueId": "93-94.5",
|
||||||
|
"name": "J. cherazade",
|
||||||
|
"value": "93-94",
|
||||||
|
"isSpirit": False,
|
||||||
|
},
|
||||||
|
},
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
html_product = f"""
|
||||||
|
<html>
|
||||||
|
<body>
|
||||||
|
<h1>MILLESIMA</h1>
|
||||||
|
<script id="__NEXT_DATA__" type="application/json">
|
||||||
|
{dumps(json_data)}
|
||||||
|
</script>
|
||||||
|
</body>
|
||||||
|
</html>
|
||||||
|
"""
|
||||||
|
m.get(
|
||||||
|
"https://www.millesima.fr/nino-negri-5-stelle-sfursat-2022.html",
|
||||||
|
text=html_product,
|
||||||
|
)
|
||||||
|
|
||||||
|
html_product = f"""
|
||||||
|
<html>
|
||||||
|
<body>
|
||||||
|
<h1>MILLESIMA</h1>
|
||||||
|
<script id="__NEXT_DATA__" type="application/json">
|
||||||
|
{dumps(json_data)}
|
||||||
|
</script>
|
||||||
|
</body>
|
||||||
|
</html>
|
||||||
|
"""
|
||||||
|
|
||||||
|
list_pleine = f"""
|
||||||
|
<html>
|
||||||
|
<body>
|
||||||
|
<h1>LE WINE</h1>
|
||||||
|
<script id="__NEXT_DATA__" type="application/json">
|
||||||
|
{dumps({
|
||||||
|
"props": {
|
||||||
|
"pageProps": {
|
||||||
|
"products": [
|
||||||
|
{"seoKeyword": "/nino-negri-5-stelle-sfursat-2022.html",},
|
||||||
|
{"seoKeyword": "/poubelle",},
|
||||||
|
{"seoKeyword": "/",}
|
||||||
|
]
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
)}
|
||||||
|
</script>
|
||||||
|
</body>
|
||||||
|
</html>
|
||||||
|
"""
|
||||||
|
|
||||||
|
list_vide = f"""
|
||||||
|
<html>
|
||||||
|
<body>
|
||||||
|
<h1>LE WINE</h1>
|
||||||
|
<script id="__NEXT_DATA__" type="application/json">
|
||||||
|
{dumps({
|
||||||
|
"props": {
|
||||||
|
"pageProps": {
|
||||||
|
"products": [
|
||||||
|
]
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
)}
|
||||||
|
</script>
|
||||||
|
</body>
|
||||||
|
</html>
|
||||||
|
"""
|
||||||
|
|
||||||
|
m.get(
|
||||||
|
"https://www.millesima.fr/wine.html",
|
||||||
|
complete_qs=False,
|
||||||
|
response_list=[
|
||||||
|
{"text": list_pleine},
|
||||||
|
{"text": list_vide},
|
||||||
|
],
|
||||||
|
)
|
||||||
|
|
||||||
|
# on return m sans fermer le server qui simule la page
|
||||||
|
yield m
|
||||||
|
|
||||||
|
|
||||||
|
@pytest.fixture
|
||||||
|
def scraper() -> Scraper:
|
||||||
|
return Scraper()
|
||||||
|
|
||||||
|
|
||||||
|
def test_soup(scraper: Scraper):
|
||||||
|
vide = scraper.getsoup("")
|
||||||
|
poubelle = scraper.getsoup("poubelle")
|
||||||
|
contenu = scraper.getsoup("nino-negri-5-stelle-sfursat-2022.html")
|
||||||
|
assert vide.find("h1") is None
|
||||||
|
assert str(poubelle.find("h1")) == "<h1>POUBELLE</h1>"
|
||||||
|
assert str(contenu.find("h1")) == "<h1>MILLESIMA</h1>"
|
||||||
|
|
||||||
|
|
||||||
|
def test_appellation(scraper: Scraper):
|
||||||
|
vide = scraper.getjsondata("")
|
||||||
|
poubelle = scraper.getjsondata("poubelle")
|
||||||
|
contenu = scraper.getjsondata("nino-negri-5-stelle-sfursat-2022.html")
|
||||||
|
assert vide.appellation() is None
|
||||||
|
assert poubelle.appellation() is None
|
||||||
|
assert contenu.appellation() == "Madame-Loïk"
|
||||||
|
|
||||||
|
|
||||||
|
def test_fonctionprivee(scraper: Scraper):
|
||||||
|
vide = scraper.getjsondata("")
|
||||||
|
poubelle = scraper.getjsondata("poubelle")
|
||||||
|
contenu = scraper.getjsondata("nino-negri-5-stelle-sfursat-2022.html")
|
||||||
|
assert vide._getattributes() is not None
|
||||||
|
assert vide._getattributes() == {}
|
||||||
|
assert vide._getcontent() is not None
|
||||||
|
assert vide._getcontent() == {"items": [], "attributes": {}}
|
||||||
|
assert poubelle._getattributes() is None
|
||||||
|
assert poubelle._getcontent() is None
|
||||||
|
assert contenu._getcontent() is not None
|
||||||
|
assert contenu._getattributes() is not None
|
||||||
|
|
||||||
|
|
||||||
|
def test_critiques(scraper: Scraper):
|
||||||
|
vide = scraper.getjsondata("")
|
||||||
|
poubelle = scraper.getjsondata("poubelle")
|
||||||
|
contenu = scraper.getjsondata("nino-negri-5-stelle-sfursat-2022.html")
|
||||||
|
assert vide.parker() is None
|
||||||
|
assert vide.robinson() is None
|
||||||
|
assert vide.suckling() is None
|
||||||
|
assert vide._getcritiques("test_ts") is None
|
||||||
|
assert poubelle.parker() is None
|
||||||
|
assert poubelle.robinson() is None
|
||||||
|
assert poubelle.suckling() is None
|
||||||
|
assert poubelle._getcritiques("test_ts") is None
|
||||||
|
assert contenu.parker() == "91"
|
||||||
|
assert contenu.robinson() == "17"
|
||||||
|
assert contenu.suckling() == "93.5"
|
||||||
|
assert contenu._getcritiques("test_ts") is None
|
||||||
|
|
||||||
|
|
||||||
|
def test_prix(scraper: Scraper):
|
||||||
|
vide = scraper.getjsondata("")
|
||||||
|
poubelle = scraper.getjsondata("poubelle")
|
||||||
|
contenu = scraper.getjsondata("nino-negri-5-stelle-sfursat-2022.html")
|
||||||
|
assert vide.prix() is None
|
||||||
|
assert poubelle.prix() is None
|
||||||
|
assert contenu.prix() == 842.0
|
||||||
|
|
||||||
|
|
||||||
|
def test_informations(scraper: Scraper):
|
||||||
|
contenu = scraper.getjsondata("nino-negri-5-stelle-sfursat-2022.html")
|
||||||
|
assert contenu.informations() == "Madame-Loïk,91,17,93.5,842.0"
|
||||||
|
vide = scraper.getjsondata("")
|
||||||
|
poubelle = scraper.getjsondata("poubelle")
|
||||||
|
assert vide.informations() == "None,None,None,None,None"
|
||||||
|
assert poubelle.informations() == "None,None,None,None,None"
|
||||||
|
|
||||||
|
|
||||||
|
def test_search(scraper: Scraper):
|
||||||
|
m = mock_open()
|
||||||
|
with patch("builtins.open", m):
|
||||||
|
scraper.getvins("wine.html", "fake_file.csv", True)
|
||||||
|
|
||||||
|
assert m().write.called
|
||||||
|
all_writes = "".join(call.args[0] for call in m().write.call_args_list)
|
||||||
|
assert "Madame-Loïk,91,17,93.5,842.0" in all_writes
|
||||||
Reference in New Issue
Block a user