diff --git a/docs/source/fr/package_reference/cache.md b/docs/source/fr/package_reference/cache.md deleted file mode 100644 index 502156ef66..0000000000 --- a/docs/source/fr/package_reference/cache.md +++ /dev/null @@ -1,61 +0,0 @@ - - -# Référence au système cache - -Le système de caching a été mis à jour dans la version v0.8.0 pour devenir un système -cache central et partagé par toutes les librairies dépendant du Hub. Consultez le -[guide système cache](../guides/manage-cache) pour une présentation détaillée du -cache à HF. - -## Les Helpers - -### try_to_load_from_cache - -[[autodoc]] huggingface_hub.try_to_load_from_cache - -### cached_assets_path - -[[autodoc]] huggingface_hub.cached_assets_path - -### scan_cache_dir - -[[autodoc]] huggingface_hub.scan_cache_dir - -## Structures de données - -Toutes les structures sont construites et retournées par [`scan_cache_dir`] -et sont immuables. - -### HFCacheInfo - -[[autodoc]] huggingface_hub.HFCacheInfo - -### CachedRepoInfo - -[[autodoc]] huggingface_hub.CachedRepoInfo - - size_on_disk_str - - refs - -### CachedRevisionInfo - -[[autodoc]] huggingface_hub.CachedRevisionInfo - - size_on_disk_str - - nb_files - -### CachedFileInfo - -[[autodoc]] huggingface_hub.CachedFileInfo - - size_on_disk_str - -### DeleteCacheStrategy - -[[autodoc]] huggingface_hub.DeleteCacheStrategy - - expected_freed_size_str - -## Exceptions - -### CorruptedCacheException - -[[autodoc]] huggingface_hub.CorruptedCacheException \ No newline at end of file diff --git a/docs/source/fr/package_reference/cards.md b/docs/source/fr/package_reference/cards.md deleted file mode 100644 index 98dfb25a8f..0000000000 --- a/docs/source/fr/package_reference/cards.md +++ /dev/null @@ -1,79 +0,0 @@ - - -# Cartes de dépôts - -La librairie `huggingface_hub` fournit une interface Python pour créer, partager et mettre à jour les -cartes de modèles ou de dataset. Consultez la [page de documentation dédiée](https://huggingface.co/docs/hub/models-cards) -Pour une vue plus profonde de ce que son les cartes de modèle sur le Hub et de comment elles fonctionnent -en arrière plan. Vous pouvez aussi consulter notre [guide de cartes de modèle](../how-to-model-cards) -pour avoir une intuition de la manière dont vous pourriez les utiliser dans vos projets. - -## Carte de dépôt - -L'objet `RepoCard` est la classe parent de [`ModelCard`], [`DatasetCard`] et `SpaceCard`. - -[[autodoc]] huggingface_hub.repocard.RepoCard - - __init__ - - all - -## Donnée de cartes - -L'objet [`CardData`] est la classe parent de [`ModelCardData`] et [`DatasetCardData`]. - -[[autodoc]] huggingface_hub.repocard_data.CardData - -## Cartes de modèles - -### ModelCard - -[[autodoc]] ModelCard - -### ModelCardData - -[[autodoc]] ModelCardData - -## Dataset Cards - -Dataset cards are also known as Data Cards in the ML Community. - -### DatasetCard - -[[autodoc]] DatasetCard - -### DatasetCardData - -[[autodoc]] DatasetCardData - -## Cartes de Space - -### SpaceCard - -[[autodoc]] SpaceCard - -### SpaceCardData - -[[autodoc]] SpaceCardData - -## Utilities - -### EvalResult - -[[autodoc]] EvalResult - -### model_index_to_eval_results - -[[autodoc]] huggingface_hub.repocard_data.model_index_to_eval_results - -### eval_results_to_model_index - -[[autodoc]] huggingface_hub.repocard_data.eval_results_to_model_index - -### metadata_eval_result - -[[autodoc]] huggingface_hub.repocard.metadata_eval_result - -### metadata_update - -[[autodoc]] huggingface_hub.repocard.metadata_update \ No newline at end of file diff --git a/docs/source/fr/package_reference/collections.md b/docs/source/fr/package_reference/collections.md deleted file mode 100644 index 5745528280..0000000000 --- a/docs/source/fr/package_reference/collections.md +++ /dev/null @@ -1,25 +0,0 @@ - - -# Gérer les collections - -Consultez la page de documentation [`HfApi`] pour les références des méthodes qui vous permettront -de gérer votre space sur le Hub. - -- Afficher le contenu d'une collection: [`get_collection`] -- Créer une nouvelle collection: [`create_collection`] -- Mettre à jour une collection: [`update_collection_metadata`] -- Supprimer une collection: [`delete_collection`] -- Ajouter un item à une collection: [`add_collection_item`] -- Mettre à jour un item dans une collection: [`update_collection_item`] -- Supprimer un item d'une collection: [`delete_collection_item`] - - -### Collection - -[[autodoc]] Collection - -### CollectionItem - -[[autodoc]] CollectionItem \ No newline at end of file diff --git a/docs/source/fr/package_reference/community.md b/docs/source/fr/package_reference/community.md deleted file mode 100644 index 38e9065ff8..0000000000 --- a/docs/source/fr/package_reference/community.md +++ /dev/null @@ -1,34 +0,0 @@ - - -# Interagir avec les dicussions et les pull requests - -Consultez la page de documentation [`HfApi`] pour les références des méthodes permettant l'intéraction -avec des pull requests et des discussions sur le Hub. - -- [`get_repo_discussions`] -- [`get_discussion_details`] -- [`create_discussion`] -- [`create_pull_request`] -- [`rename_discussion`] -- [`comment_discussion`] -- [`edit_discussion_comment`] -- [`change_discussion_status`] -- [`merge_pull_request`] - -## Structure des données - -[[autodoc]] Discussion - -[[autodoc]] DiscussionWithDetails - -[[autodoc]] DiscussionEvent - -[[autodoc]] DiscussionComment - -[[autodoc]] DiscussionStatusChange - -[[autodoc]] DiscussionCommit - -[[autodoc]] DiscussionTitleChange diff --git a/docs/source/fr/package_reference/environment_variables.md b/docs/source/fr/package_reference/environment_variables.md deleted file mode 100644 index ad76eeb227..0000000000 --- a/docs/source/fr/package_reference/environment_variables.md +++ /dev/null @@ -1,186 +0,0 @@ - - -# Variables d'environnement - -`huggingface_hub` peut être configuré en utilisant des variables d'environnement. - -Si vous n'êtes pas familier avec le principe de variable d'environnement, voici des -articles assez générique sur ces dernières [sur macOS et Linux](https://linuxize.com/post/how-to-set-and-list-environment-variables-in-linux/) -et sur [Windows](https://phoenixnap.com/kb/windows-set-environment-variable). - -Cette page vous guidera à travers toutes les variables d'environnement spécifiques à -`huggingface_hub` et leur signification. - -## Les variables génériques - -### HF_INFERENCE_ENDPOINT - -Pour configurer l'url de base de l'api d'inférence, vous aurez peut-être besoin de définir -cette variable si votre organisation pointe vers un gateway d'API plutôt que directement vers -l'API d'inférence. - -Par défaut, l'endpoint sera `"https://api-inference.huggingface.com"`. - -### HF_HOME - -Pour configurer le chemin vers lequel `huggingface_hub` enregistrera de la donnée par -défaut. En particulier, votre token d'authentification et le cache seront enregistrés -dans ce dossier. - -Par défaut, ce chemin sera `"~/.cache/huggingface"` sauf si [XDG_CACHE_HOME](#xdgcachehome) -est définie. - -### HF_HUB_CACHE - -Pour configurer le chemin vers lequels les dépôts du Hub seront mis en cache en local -(modèles, datasets et spaces). - -Par défaut, ce sera `"$HF_HOME/hub"` (i.e. `"~/.cache/huggingface/hub"` par défaut). - -### HF_ASSETS_CACHE - -Pour configurer le chemin vers lequel les [assets](../guides/manage-cache#caching-assets) créés -par des librairies seront mis en cache en local. Ces assets peuvent être de la donnée pré-traitée, -des fichiers téléchargés depuis GitHub, des logs,... - -Par défaut, le chemin sera `"$HF_HOME/assets"` (i.e. `"~/.cache/huggingface/assets"` par défaut). - -### HF_TOKEN - -Pour configurer le token d'authentification qui permet de vous authentifier sur le Hub. -Si définie, cette valeur écrasera le token enregistré sur la machine (dans `"$HF_HOME/token"`). - -Consultez [la référence aux connexions](../package_reference/login) pour plus de détails. - -### HF_HUB_VERBOSITY - -Définissez le niveau de verbosité du logger `huggingface_hub`. La variable doit -être choisie parmi `{"debug", "info", "warning", "error", "critical"}`. - -Par défaut, la variable sera `"warning"`. - -Pour plus de détails, consultez [la référence aux connexions](../package_reference/utilities#huggingface_hub.utils.logging.get_verbosity). - -### HF_HUB_LOCAL_DIR_AUTO_SYMLINK_THRESHOLD - -Valeur entière définissant en dessous de quelle taille un fichier est considéré comme "petit". Lors du téléchargement -de fichiers vers un chemin local, les petits fichiers seront dupliqués pour faciliter l'expérience utilisateur là où -les fichiers plus gros n'auront qu'un symlink vers eux pour conserver de l'espace sur le disque. - -Pour plus de détails, consultez le [guide de téléchargement](../guides/download#download-files-to-local-folder). - -### HF_HUB_ETAG_TIMEOUT - -Valeur entière définissant le nombre de secondes pendant lesquelles il faut attendre la réponse du serveur lors de l'affichage des dernières metadonnées depuis un dépôt avant de télécharger un fichier. En cas de timeout, alors, par défaut, `huggingface_hub` se limitera aux fichiers en cache en local. Définir une valeur plus faible accélère le workflow pour des machines avec une connexion lente qui ont déjà des fichiers en cache. Une plus grande valeur garanti l'appel aux métadonnées pour réussir dans plus de cas. Par défaut, la valeur est de 10s. - -### HF_HUB_DOWNLOAD_TIMEOUT - -Valeur entière pour définir le nombre de secondes durant lesquelles il faut attendre la réponse du serveur lors du téléchargement d'un fichier. Si la requête tiemout, une TimeoutError sera levée. Définir une valeur grande est bénéfique sur une machine qui a une connexion lente. Une valeur plus faible fait échouer le process plus vite dans le cas d'un réseau complexe. Par défaut, la valeur est de 10s. - -## Valeures booléennes - -Les variables d'environnement suivantes attendes une valeur booléenne. La variable sera -considérées comme `True` si sa valeur fait partie de la liste`{"1", "ON", "YES", "TRUE"}`. -Toute autre valeur (ou undefined) sera considérée comme `False`. - -### HF_HUB_OFFLINE - -Si définie, aucun appel HTTP ne sera fait lors de l'ajout de fichiers. Seuls les fichiers -qui sont déjà en cache seront ajoutés. C'est utile si votre réseau est lent et que vous -vous en fichez d'avoir absolument la dernière version d'un fichier. - -**Note:** Même si la dernière version d'un fichier est en cache, l'appel de `hf_hub_download` -lancera quand même une requête HTTP pour vérifier qu'une nouvelle version est disponible. -Définir `HF_HUB_OFFLINE=1` évitera cet appel ce qui peut accélérer votre temps de chargement. - -### HF_HUB_DISABLE_IMPLICIT_TOKEN - -L'authentification n'est pas obligatoire pour toutes les requêtes vers le Hub. Par -exemple, demander des détails sur le modèle `"gpt2"` ne demande pas nécessairement -d'être authentifié. Cependant, si un utilisateur est [connecté](../package_reference/login), -le comportement par défaut sera de toujours envoyer le token pour faciliter l'expérience -utilisateur (cela évite d'avoir une erreur 401 Unauthorized) lors de l'accès de dépôt -privés ou protégé. Vous pouvez supprimer ce comportement en définissant `HF_HUB_DISABLE_IMPLICIT_TOKEN=1`. -Dans ce cas, le token ne sera envoyé que pour des appels de type "write-access" (par exemple, pour créer un commit). - -**Note:** supprimer l'envoi implicit de token peut avoir des effets secondaires bizarres. -Par exemple, si vous voulez lister tous les modèles sur le Hub, vos modèles privés ne -seront pas listés. Vous auriez besoin d'un argument explicite `token=True` dans votre -script. - -### HF_HUB_DISABLE_PROGRESS_BARS - -Pour les tâches longues, `huggingface_hub` affiche une bar de chargement par défaut (en utilisant tqdm). -Vous pouvez désactiver toutes les barres de progression d'un coup en définissant -`HF_HUB_DISABLE_PROGRESS_BARS=1`. - -### HF_HUB_DISABLE_SYMLINKS_WARNING - -Si vous avez une machine Windows, il est recommandé d'activer le mode développeur ou de -faire tourner `huggingface_hub` en mode admin. Sinon, `huggingface_hub` ne ser pas capable -de créer des symlinks dans votre système de cache. Vous serez capables d'exécuter n'importe -quel script, mais votre expérience utilisateur sera moins bonne vu que certains gros fichiers -pourraient être dupliqués sur votre disque dur. Un message d'avertissement vous préviendra -de ce type de comportement. Définissez `HF_HUB_DISABLE_SYMLINKS_WARNING=1`, pour désactiver -cet avertissement. - -Pour plus de détails, consultez [les limitations du cache](../guides/manage-cache#limitations). - -### HF_HUB_DISABLE_EXPERIMENTAL_WARNING - -Certaines fonctionnalités de `huggingface_hub` sont expérimentales, cela signfie que vous pouvez les utliiser mais -nous ne garantissons pas qu'elles seront maintenues plus tard. En particulier, nous mettrons peut-être à jour les -API ou le comportement de telles fonctionnalités sans aucun cycle de deprecation. Un message d'avertissement sera -affiché lorsque vous utilisez une fonctionnalités expérimentale pour vous l'indiquer. Si vous n'êtes pas dérangé par -le fait de devoir debug toute erreur potentielle liée à l'usage d'une fonctionnalité expérimentale, vous pouvez -définir `HF_HUB_DISABLE_EXPERIMENTAL_WARNING=1` pour désactiver l'avertissement. - -Si vous utilisez une fonctoinnalité expérimental, faites le nous savoir! Votre retour peut nous aider à l'améliorer. - -### HF_HUB_DISABLE_TELEMETRY - -Par défaut, des données sont collectées par les librairies HF (`transformers`, `datasets`, `gradio`,..) pour gérer l'utilisation et les problèmes de débug et pour aider à définir les fonctionnalités prioritaires. Chaque librairie définit sa propre politique (i.e. les cas d'usage sur lesquels les données eront collectées), mais l'implémentation principale se passe dans `huggingface_hub` (consultez [`send_telemetry`]). - -Vous pouvez définir `HF_HUB_DISABLE_TELEMETRY=1` en tant que variable d'environnement pour désactiver la télémétrie. - -### HF_HUB_ENABLE_HF_TRANSFER - -Définissez cette valeur à `True` pour des upload et des téléchargements plus rapides depuis le Hub en utilisant `hf_transfer`. - -Par défaut, `huggingface_hub` utilise les fonctions basées sur Python `requests.get` et `requests.post`. Même si ces fonctions sont fiables et assez versatiles, elle pourrait ne pas être le choix le plus efficace pour les machines avec une bande passante large. [`hf_transfer`](https://github.com/huggingface/hf_transfer) est un package basé sur Rust développé pour maximiser la bande passante utilisée en divisant les gros fichier en des parties plus petites et les transférer toutes simultanément en utilisant plusieurs threads. Cette approche peut potentiellement doubler la vitesse de transfert. Pour utiliser `hf_transfer`, vous devez l'installer séparément [de PyPI](https://pypi.org/project/hf-transfer/) et définir `HF_HUB_ENABLE_HF_TRANSFER=1` en tant que variable d'environnement. - -N'oubliez pas que l'utilisation d'`hf_transfer` a certaines limitations. Vu qu'elle n'est pas purement basé sur Python, le debug d'erreurs peut s'avérer plus compliqué. De plus, `hf_transfer` n'est pas totues les fonctionnalités user-friendly telles que le téléchargement reprenables et les proxys. Ces omissions sont intentionnelles et permettent de maintenir la simplicité et la vitesse de la logique Rust. Par conséquent, `hf_transfer` n'est pas activée par défaut dans `huggingface_hub`. - -## Variables d'environnement deprecated - -Afin de standardiser toutes les variables d'environnement dans l'écosystème Hugging Face, certaines variable ont été marquée comme deprecated. Même si elle fonctionnent toujours, elles ne sont plus prioritaires par rapport à leur remplacements. La table suivante liste les variables d'environnement deprecated et leurs alternatives respectives: - - -| Variable deprecated | Alternative | -| --- | --- | -| `HUGGINGFACE_HUB_CACHE` | `HF_HUB_CACHE` | -| `HUGGINGFACE_ASSETS_CACHE` | `HF_ASSETS_CACHE` | -| `HUGGING_FACE_HUB_TOKEN` | `HF_TOKEN` | -| `HUGGINGFACE_HUB_VERBOSITY` | `HF_HUB_VERBOSITY` | - -## Depuis un outil extérieur - -Certaines variables d'environnement ne sont pas spécifiques à `huggingface_hub` mais sont tout de même prises en compte -lorsqu'elles sont définies. - -### NO_COLOR - -Valeur booléenne, lorsque définie à `True`, l'outil `huggingface-cli` n'affichera -aucune couleur ANSI. -Consultez [no-color.org](https://no-color.org/). - -### XDG_CACHE_HOME - -Utilisé uniqueemnt si `HF_HOME` n'est pas défini! - -C'est la manière par défaut de configurer l'endroit où [les données en cache non essentielles devraient être écrites](https://wiki.archlinux.org/title/XDG_Base_Directory) sur les machines linux. - -Si `HF_HOME` n'est pas définie, le chemin par défaut sera `"$XDG_CACHE_HOME/huggingface"` -aulieu de `"~/.cache/huggingface"`. diff --git a/docs/source/fr/package_reference/file_download.md b/docs/source/fr/package_reference/file_download.md deleted file mode 100644 index 97050065c6..0000000000 --- a/docs/source/fr/package_reference/file_download.md +++ /dev/null @@ -1,38 +0,0 @@ - - -# Téléchargement des fichiers - -## Télécharger un unique fichier - -### hf_hub_download - -[[autodoc]] huggingface_hub.hf_hub_download - -### hf_hub_url - -[[autodoc]] huggingface_hub.hf_hub_url - -## Télécharger un instantané du dépôt - -[[autodoc]] huggingface_hub.snapshot_download - -## Obtenir une métadonnée sur un fichier - -### get_hf_file_metadata - -[[autodoc]] huggingface_hub.get_hf_file_metadata - -### HfFileMetadata - -[[autodoc]] huggingface_hub.HfFileMetadata - -## Utilisation du cache - -Le méthodes affichées ci dessus sont faites pour fonctionner avec un système de cache -ce qui évite de retélécharger des fichiers. Le système de cache a été mis à jour dans -la version v0.8.0 afin d'être le système de cache central partagé dans toutes les -librairies dépendant du Hub. - -Consultez le [guide cache-system](../guides/manage-cache) pour une présentation détaillée du caching à HF. \ No newline at end of file diff --git a/docs/source/fr/package_reference/hf_api.md b/docs/source/fr/package_reference/hf_api.md deleted file mode 100644 index 8a90e20500..0000000000 --- a/docs/source/fr/package_reference/hf_api.md +++ /dev/null @@ -1,135 +0,0 @@ - - -# HfApi Client - -Ci dessous la documentation pour la classe `HfApi`, qui sert de wrapper Python pour l'API Hugging Face Hub. - -Toutes les méthodes de `HfApi` sont aussi accessibles depuis la racine du package directement. Les deux approches sont détaillées ci-dessous. - -Utiliser la méthode du chemin racine est plus direct mais la classe [`HfApi`] donne plus de flexibilité. -En particulier, vous pouvez mettre un token qui va être réutilisé dans tous les appels HTTP. C'est -différent de la commande `huggingface-cli login` ou [`login`] vu que le token n'est pas enregistré -sur la machine. Il est aussi possible de fournir un endpoint différent ou de configurer un user-agent -personnalisé. - -```python -from huggingface_hub import HfApi, list_models - -# Utilisez la méthode du chemin racine -models = list_models() - -# Ou configurez le client HfApi -hf_api = HfApi( - endpoint="https://huggingface.co", # Vous pouvez mettre un endpoint de Hub privéC. - token="hf_xxx", # Le token n'est pas sauvegardé sur la machine. -) -models = hf_api.list_models() -``` - -## HfApi - -[[autodoc]] HfApi - -[[autodoc]] plan_multi_commits - -## API Dataclasses - -### CommitInfo - -[[autodoc]] huggingface_hub.hf_api.CommitInfo - -### DatasetInfo - -[[autodoc]] huggingface_hub.hf_api.DatasetInfo - -### GitRefInfo - -[[autodoc]] huggingface_hub.hf_api.GitRefInfo - -### GitCommitInfo - -[[autodoc]] huggingface_hub.hf_api.GitCommitInfo - -### GitRefs - -[[autodoc]] huggingface_hub.hf_api.GitRefs - -### ModelInfo - -[[autodoc]] huggingface_hub.hf_api.ModelInfo - -### RepoSibling - -[[autodoc]] huggingface_hub.hf_api.RepoSibling - -### RepoFile - -[[autodoc]] huggingface_hub.hf_api.RepoFile - -### RepoUrl - -[[autodoc]] huggingface_hub.hf_api.RepoUrl - -### SafetensorsRepoMetadata - -[[autodoc]] huggingface_hub.utils.SafetensorsRepoMetadata - -### SafetensorsFileMetadata - -[[autodoc]] huggingface_hub.utils.SafetensorsFileMetadata - -### SpaceInfo - -[[autodoc]] huggingface_hub.hf_api.SpaceInfo - -### TensorInfo - -[[autodoc]] huggingface_hub.utils.TensorInfo - -### User - -[[autodoc]] huggingface_hub.hf_api.User - -### UserLikes - -[[autodoc]] huggingface_hub.hf_api.UserLikes - -## CommitOperation - -Ci dessous les valeurs supportés pour [`CommitOperation`]: - -[[autodoc]] CommitOperationAdd - -[[autodoc]] CommitOperationDelete - -[[autodoc]] CommitOperationCopy - -## CommitScheduler - -[[autodoc]] CommitScheduler - -## Token helper - -`huggingface_hub` garde en mémoire l'information d'authentification en local pour qu'il puisse être réutilisé -dans les méthodes suivantes. - -La librairie fait ceci en utilisant l'utilitaire [`HfFolder`], qui sauvegarde de la donnée -à la racine de l'utilisateur. - -[[autodoc]] HfFolder - -## Search helpers - -Certains helpers pour filtrer les dépôts sur le Hub sont disponibles dans le package -`huggingface_hub`. - -### DatasetFilter - -[[autodoc]] DatasetFilter - -### ModelFilter - -[[autodoc]] ModelFilter - diff --git a/docs/source/fr/package_reference/hf_file_system.md b/docs/source/fr/package_reference/hf_file_system.md deleted file mode 100644 index e36c6393fa..0000000000 --- a/docs/source/fr/package_reference/hf_file_system.md +++ /dev/null @@ -1,16 +0,0 @@ - - -# L'API FileSystem - -La classe `HfFileSystem` offre une interface Python pour le Hub Hugging Face basée sur [`fsspec`](https://filesystem-spec.readthedocs.io/en/latest/). - -## HfFileSystem - -`HfFileSystem` est basé sur [fsspec](https://filesystem-spec.readthedocs.io/en/latest/), donc cette classe est compatible avec la plupart des API offertes par fsspec. Pour plus de détails, consultez [notre guide](../guides/hf_file_system) et les [Références](https://filesystem-spec.readthedocs.io/en/latest/api.html#fsspec.spec.AbstractFileSystem) de l'API fsspec. - -[[autodoc]] HfFileSystem - - __init__ - - resolve_path - - ls diff --git a/docs/source/fr/package_reference/inference_client.md b/docs/source/fr/package_reference/inference_client.md deleted file mode 100644 index 8932918377..0000000000 --- a/docs/source/fr/package_reference/inference_client.md +++ /dev/null @@ -1,112 +0,0 @@ - - -# Inférence - -L'inférence est le fait d'utiliser un modèle déjà entrainé pour faire des prédictions sur de nouvelles données. Comme ce -processus peut demander beaucoup de ressources computationnelles, le lancer sur un serveur dédié peut être une option -intéressante. La librairie `huggingface_hub` offre une manière facile d'appeler un service qui fait de l'inférence pour -les modèles hébergés. Il y a plusieurs services auxquels vous pouvez vous connecter: -- [Inference API](https://huggingface.co/docs/api-inference/index): un service qui vous permet de faire des inférences accélérées -sur l'infrastructure Hugging Face gratuitement. Ce service est une manière rapide de commencer, tester différents modèles et -créer des premiers prototypes de produits IA. --[Inference Endpoints](https://huggingface.co/inference-endpoints): un produit qui permet de déployer facilement des modèles en production. -L'inférence est assurée par Hugging Face dans l'infrastructure dédiée d'un cloud provider de votre choix. - -Ces services peuvent être appelés avec l'objet [`InferenceClient`]. Consultez [ce guide](../guides/inference) pour plus -d'informations sur le mode d'utilisation. - -## Client d'inférence - -[[autodoc]] InferenceClient - -## Client d'inférence asynchrone - -Une version asychrone du client basée sur `asyncio` et `aihttp` est aussi fournie. -Pour l'utiliser, vous pouvez soit installer `aiohttp` directement ou utiliser l'extra `[inference]`: - -```sh -pip install --upgrade huggingface_hub[inference] -# or -# pip install aiohttp -``` - -[[autodoc]] AsyncInferenceClient - -## InferenceTimeoutError - -[[autodoc]] InferenceTimeoutError - -## Types retournés - -Pour la plupart des tâches, la valeur retournée a un type intégré (string, list, image...). Voici une liste de types plus complexes. - -### ClassificationOutput - -[[autodoc]] huggingface_hub.inference._types.ClassificationOutput - -### ConversationalOutputConversation - -[[autodoc]] huggingface_hub.inference._types.ConversationalOutputConversation - -### ConversationalOutput - -[[autodoc]] huggingface_hub.inference._types.ConversationalOutput - -### ImageSegmentationOutput - -[[autodoc]] huggingface_hub.inference._types.ImageSegmentationOutput - -### ModelStatus - -[[autodoc]] huggingface_hub.inference._common.ModelStatus - -### TokenClassificationOutput - -[[autodoc]] huggingface_hub.inference._types.TokenClassificationOutput - -### Types pour la génération de texte - -La tâche [`~InferenceClient.text_generation`] a un meilleur support que d'autres tâches dans `InferenceClient`. -Les inputs des utilisateurs et les outputs des serveurs sont validés en utilisant [Pydantic](https://docs.pydantic.dev/latest/) -si ce package est installé. Par conséquent, nous vous recommandons de l'installer (`pip install pydantic`) pour -une meilleure expérience. - -Vous pouvez trouver ci-dessous, les dataclasses utilisées pour valider des données et en particulier -[`~huggingface_hub.inference._text_generation.TextGenerationParameters`] (input) -[`~huggingface_hub.inference._text_generation.TextGenerationResponse`] (output) et -[`~huggingface_hub.inference._text_generation.TextGenerationStreamResponse`] (streaming output). - -[[autodoc]] huggingface_hub.inference._text_generation.TextGenerationParameters - -[[autodoc]] huggingface_hub.inference._text_generation.TextGenerationResponse - -[[autodoc]] huggingface_hub.inference._text_generation.TextGenerationStreamResponse - -[[autodoc]] huggingface_hub.inference._text_generation.InputToken - -[[autodoc]] huggingface_hub.inference._text_generation.Token - -[[autodoc]] huggingface_hub.inference._text_generation.FinishReason - -[[autodoc]] huggingface_hub.inference._text_generation.BestOfSequence - -[[autodoc]] huggingface_hub.inference._text_generation.Details - -[[autodoc]] huggingface_hub.inference._text_generation.StreamDetails - -## InferenceAPI - -[`InferenceAPI`] est la méthode historique pour appeler l'API d'inférence. L'interface est plus simpliste et -demande une conaissance des paramètres d'entrées et du format de sortie de chacune des tâches. Cette interface -ne peut pas se connecter à d'autres services tels que Inference Endpoints or AWS SageMaker. [`InferenceAPI`] sera -bientôt deprecated, ainsi, nous recommendons l'utilisation de [`InferenceClient`] quand c'est possible. -Consultez [ce guide](../guides/inference#legacy-inferenceapi-client) pour apprendre comment passer -d'[`InferenceAPI`] à [`InferenceClient`] dans vos scripts. - -[[autodoc]] InferenceApi - - __init__ - - __call__ - - all - diff --git a/docs/source/fr/package_reference/inference_endpoints.md b/docs/source/fr/package_reference/inference_endpoints.md deleted file mode 100644 index 5dd22808c7..0000000000 --- a/docs/source/fr/package_reference/inference_endpoints.md +++ /dev/null @@ -1,45 +0,0 @@ -# Inference Endpoints - -Inference Endpoints est une solution permettant de déployer facilement les modèles en production sur une infrastructure gérée par Hugging Face et capable d'autoscaling . Un Inference Endpoint peut être crée sur un modèle depuis le [Hub](https://huggingface.co/models). Cette page est -une référence pour l'intégration d'`huggingface_hub` avec Inference Endpoints. Pour plus d'informations à propos du produit Inference Endpoints, consultez la [documentation officielle](https://huggingface.co/docs/inference-endpoints/index). - - - -Consultez ce [guide](../guides/inference_endpoints) pour apprendre à utiliser `huggingface_hub` pour gérer votre Inference Enpoints depuis le code. - - - -Inference Endpoints peut être entièrement géré depuis une API. Les endpoints sont consultables via [Swagger](https://api.endpoints.huggingface.cloud/). -La classe [`InferenceEndpoint`] est un simple wrapper autour de cette API. - -## Méthodes - -Un sous ensemble des fonctionnalités de l'Inference Endpoint sont implémentées dans [`HfApi`]: - -- [`get_inference_endpoint`] et [`list_inference_endpoints`] pour obtenir de l'information sur vos Inference Endpoints -- [`create_inference_endpoint`], [`update_inference_endpoint`] et [`delete_inference_endpoint`] pour déployer et gérer les Inference Endpoints -- [`pause_inference_endpoint`] et [`resume_inference_endpoint`] pour mettre en pause et relancer un Inference Enpoint -- [`scale_to_zero_inference_endpoint`] pour scale à la main l'Inference Endpoint à 0 replicas - -## InferenceEndpoint - -La dataclass principale est [`InferenceEndpoint`]. Elle contient des informations sur un `InferenceEndpoint` déployé, notamment sa configuration et son -état actuel. Une fois déployé, vous pouvez faire des inférences sur l'enpoint en utilisant les propriétés [`InferenceEndpoint.client`] et [`InferenceEndpoint.async_client`] qui retournent respectivement un objet [`InferenceClient`] et [`AsyncInferenceClient`] - -[[autodoc]] InferenceEndpoint - - from_raw - - client - - async_client - - all - -## InferenceEndpointStatus - -[[autodoc]] InferenceEndpointStatus - -## InferenceEndpointType - -[[autodoc]] InferenceEndpointType - -## InferenceEndpointError - -[[autodoc]] InferenceEndpointError \ No newline at end of file diff --git a/docs/source/fr/package_reference/login.md b/docs/source/fr/package_reference/login.md deleted file mode 100644 index 2ebb7b70f1..0000000000 --- a/docs/source/fr/package_reference/login.md +++ /dev/null @@ -1,23 +0,0 @@ - - -# Login and logout - -La librairie `huggingface_hub` permet aux utilisateur de se connecter et déconnecter -votre machine au Hub par le code. -## login - -[[autodoc]] login - -## interpreter_login - -[[autodoc]] interpreter_login - -## notebook_login - -[[autodoc]] notebook_login - -## logout - -[[autodoc]] logout diff --git a/docs/source/fr/package_reference/mixins.md b/docs/source/fr/package_reference/mixins.md deleted file mode 100644 index 9762068a1e..0000000000 --- a/docs/source/fr/package_reference/mixins.md +++ /dev/null @@ -1,41 +0,0 @@ - - -# Mixins & méthodes de sérialisation - -## Mixins - -La librairie `huggingface_hub` offre une liste de mixins qui peuvent être utilisés en tant que classes parentes pour vos -objets, afin d'avoir des fonctions upload et de téléchargements simples. Consultez notre [guide d'intégration](../guides/integrations) -pour apprendre à intégrer n'importe quel framework ML avec le Hub. - -### Generic - -[[autodoc]] ModelHubMixin - - all - - _save_pretrained - - _from_pretrained - -### PyTorch - -[[autodoc]] PyTorchModelHubMixin - -### Keras - -[[autodoc]] KerasModelHubMixin - -[[autodoc]] from_pretrained_keras - -[[autodoc]] push_to_hub_keras - -[[autodoc]] save_pretrained_keras - -### Fastai - -[[autodoc]] from_pretrained_fastai - -[[autodoc]] push_to_hub_fastai - - - diff --git a/docs/source/fr/package_reference/overview.md b/docs/source/fr/package_reference/overview.md deleted file mode 100644 index c9f66d28c5..0000000000 --- a/docs/source/fr/package_reference/overview.md +++ /dev/null @@ -1,7 +0,0 @@ - - -# Vue d'ensemble - -Cette section contiens une description technique et exhaustive des classes `huggingface_hub` et des méthodes. \ No newline at end of file diff --git a/docs/source/fr/package_reference/repository.md b/docs/source/fr/package_reference/repository.md deleted file mode 100644 index c8ebc43581..0000000000 --- a/docs/source/fr/package_reference/repository.md +++ /dev/null @@ -1,51 +0,0 @@ - - -# Managing local and online repositories - -La classe `Repository` est un helper autour des commandes `git` et `git-lfs`. Elle offre des outils adaptés -à la gestion de dépôts qui peuvent être très volumineux. - -C'est l'outil recommandé dès que des opérations avec `git` sont faites, ou lorsque la collaboration sera un point -clef du dépôt. - -## The Repository class - -[[autodoc]] Repository - - __init__ - - current_branch - - all - -## Helper methods - -[[autodoc]] huggingface_hub.repository.is_git_repo - -[[autodoc]] huggingface_hub.repository.is_local_clone - -[[autodoc]] huggingface_hub.repository.is_tracked_with_lfs - -[[autodoc]] huggingface_hub.repository.is_git_ignored - -[[autodoc]] huggingface_hub.repository.files_to_be_staged - -[[autodoc]] huggingface_hub.repository.is_tracked_upstream - -[[autodoc]] huggingface_hub.repository.commits_to_push - -## Commandes asynchrones - -L'utilitaire `Repository` offre plusieurs méthodes qui peuvent tourner en asynchrone: -- `git_push` -- `git_pull` -- `push_to_hub` -- Le manager de contexte `commit` - -Regardez ci-dessous les utilities pour gérer ce genre de méthodes asynchrones. - -[[autodoc]] Repository - - commands_failed - - commands_in_progress - - wait_for_commands - -[[autodoc]] huggingface_hub.repository.CommandInProgress \ No newline at end of file diff --git a/docs/source/fr/package_reference/space_runtime.md b/docs/source/fr/package_reference/space_runtime.md deleted file mode 100644 index 96bb480b7c..0000000000 --- a/docs/source/fr/package_reference/space_runtime.md +++ /dev/null @@ -1,38 +0,0 @@ - - -# Gérez le temps d'exécution de votre space - -Consultez la page de documentation d'[`HfApi`] pour les références des méthodes pour gérer votre space -sur le Hub. - -- Dupliquer un space: [`duplicate_space`] -- Afficher les temps de calcul actuels: [`get_space_runtime`] -- Gérer les secrets: [`add_space_secret`] et [`delete_space_secret`] -- Gérer le hardware: [`request_space_hardware`] -- Gérer l'état: [`pause_space`], [`restart_space`], [`set_space_sleep_time`] - -## Structures de données - -### SpaceRuntime - -[[autodoc]] SpaceRuntime - -### SpaceHardware - -[[autodoc]] SpaceHardware - -### SpaceStage - -[[autodoc]] SpaceStage - -### SpaceStorage - -[[autodoc]] SpaceStorage - -### SpaceVariable - -[[autodoc]] SpaceVariable - - diff --git a/docs/source/fr/package_reference/tensorboard.md b/docs/source/fr/package_reference/tensorboard.md deleted file mode 100644 index 04662ffd27..0000000000 --- a/docs/source/fr/package_reference/tensorboard.md +++ /dev/null @@ -1,20 +0,0 @@ - - -# Logger TensorBoard - -TensorBoard est un kit d'outils qui permet de tester des outils de machine learning. TensorBoard permet de traquer -et de visualiser les métriques telles que la fonction de perte la précision, visualiser des graphiques, visualisers des -histogrammes, afficher des images et bien plus. TensorBoard est bien intégré avec le Hub Hugging Face. Le Hub détecte -automatiquement les traces de Tensorboard (telles que `tfevents`) lors d'un push vers le Hub qui lance une instance -pour les visualiser. Pour avoir plus d'informations sur l'intégration de TensorBoard avec le Hub, consultez [ce guide](https://huggingface.co/docs/hub/tensorboard). - -Pour bénéficier de cette intégration, `huggingface_hub` fournit un logger personnalisé pour push les logs vers le Hub. -Il fonctionne comme un remplacement de [SummaryWriter](https://tensorboardx.readthedocs.io/en/latest/tensorboard.html) -sans que vous n'ayez besoin de rajouter du code. Les traces sont toujours enregistrées en local et sont push vers le Hub -à des intervalles réguliers en arrière plan. - -## HFSummaryWriter - -[[autodoc]] HFSummaryWriter \ No newline at end of file diff --git a/docs/source/fr/package_reference/utilities.md b/docs/source/fr/package_reference/utilities.md deleted file mode 100644 index d6fcc68dee..0000000000 --- a/docs/source/fr/package_reference/utilities.md +++ /dev/null @@ -1,271 +0,0 @@ - - -# Utilitaires - -## Configurer la connexion - -Le package `huggingface_hub` expose un utilitaire `logging` qui permet de contrôler le niveau d'authentification -du package. Vous pouvez l'importer ainsi: - -```py -from huggingface_hub import logging -``` - -Ensuite, vous pourrez définir la verbosité afin de changer la quantité de logs que vous -verez: - -```python -from huggingface_hub import logging - -logging.set_verbosity_error() -logging.set_verbosity_warning() -logging.set_verbosity_info() -logging.set_verbosity_debug() - -logging.set_verbosity(...) -``` - -Les niveau de verbosité doivent être compris comme suit: - -- `error`: ne montre que les logs critiques qui pourrait causer une erreur ou un comportement innatendu. -- `warning`: montre des logs qui ne sont pas critiques mais dont l'utilisation pourrait causer un comportement inattendu. -En plus de ça, des informations importantes pourraient être affichées. -- `info`: montre la plupart des logs, dont des informations de logging donnant des informations sur ce que fait la fonction en arrière plan. -Si quelque chose se comporte de manière innatendue, nous recommendons de passer le niveau de verbosité à `info` afin d'avoir plus -d'informations. -- `debug`: montre tous les logs, dont des logs internes qui pourraient utiliser pour suivre en détail tout ce qui se passe en -arrière plan. - -[[autodoc]] logging.get_verbosity -[[autodoc]] logging.set_verbosity -[[autodoc]] logging.set_verbosity_info -[[autodoc]] logging.set_verbosity_debug -[[autodoc]] logging.set_verbosity_warning -[[autodoc]] logging.set_verbosity_error -[[autodoc]] logging.disable_propagation -[[autodoc]] logging.enable_propagation - -### Méthodes d'helper spécifiques au dépôt. - -Les méthodes montrés ci-dessous sont pertinentes lors de la modification de modules de la librairie `huggingface_hub`. -Utiliser ces méthodes ne devrait pas être nécessaire si vous utilisez les méthodes`huggingface_hub` -et que vous ne les modifiez pas. - -[[autodoc]] logging.get_logger - -## Configurez la barre de progression - -Les barres de progression sont utiles pour afficher des informations à l'utiliser lors de l'exécution d'une longue -tâche (i.e. lors du téléchargement ou de l'upload de fichiers). `huggingface_hub` met à disposition un wrapper -[`~utils.tqdm`] qui permet d'afficher constamment les barres de progressions pour toutes les fonctions de la -librairie. - -Par défaut, les barres de progressions sont activées. Vous pouvez les désactiver en définissant la -variable d'environnement `HF_HUB_DISABLE_PROGRESS_BARS`. Vous pouvez aussi les activer/désactiver en -utilisant [`~utils.enable_progress_bars`] et [`~utils.disable_progress_bars`]. Si définie, la variable -d'environnement a la priorité sur les helpers. - - -```py ->>> from huggingface_hub import snapshot_download ->>> from huggingface_hub.utils import are_progress_bars_disabled, disable_progress_bars, enable_progress_bars - ->>> # Supprimez toutes les barres de progression ->>> disable_progress_bars() - ->>> # Les barres de progressions ne seront pas affichées ! ->>> snapshot_download("gpt2") - ->>> are_progress_bars_disabled() -True - ->>> # Réactivez toutes les barres de progression ->>> enable_progress_bars() -``` - -### are_progress_bars_disabled - -[[autodoc]] huggingface_hub.utils.are_progress_bars_disabled - -### disable_progress_bars - -[[autodoc]] huggingface_hub.utils.disable_progress_bars - -### enable_progress_bars - -[[autodoc]] huggingface_hub.utils.enable_progress_bars - -## Configurez un backend HTTPConfigure HTTP backend - -Dans certains environnements, vous aurez peut être envie de configurer la manière dont les appels HTTP sont faits, -par exemple, si vous utilisez un proxy. `huggingface_hub` vous permet de configurer ceci en utilisant [`configure_http_backend`]. -Toutes les requêtes faites au Hub utiliseront alors vos paramètres.En arrière-plan, `huggingface_hub` utilise -`requests.Session`, vous aurez donc peut être besoin de consultez la [documentation `requests`](https://requests.readthedocs.io/en/latest/user/advanced) -pour en savoir plus sur les paramètres disponibles. - -Vu que `requests.Session` n'est pas toujours à l'abri d'un problème de thread, `huggingface_hub` créé une seule -instance de session par thread. L'utilisation de ces sessions permet de garder la connexion ouverte entre les appels HTTP -afin de gagner du temps. Si vous êtes entrain d'intégrer `huggingface_hub` dans une autre librairie tiers et que vous -voulez faire des appels personnalisés vers le Hub, utilisez [`get_session`] pour obtenir une session configurée par -vos utilisateurs (i.e. remplacez tous les appels à `requests.get(...)` par `get_session().get(...)`). - -[[autodoc]] configure_http_backend - -[[autodoc]] get_session - - -## Gérez les erreurs HTTP - -`huggingface_hub` définit ses propres erreurs HTTP pour améliorer le `HTTPError` -levé par `requests` avec des informations supplémentaires envoyées par le serveur. - -### Raise for status - -[`~utils.hf_raise_for_status`] est la méthode centrale pour "raise for status" depuis n'importe quelle -reqête faite au Hub. C'est wrapper autour de `requests.raise_for_status` qui fournit des informations -supplémentaires. Toute `HTTPError` envoyée est convertie en `HfHubHTTPError`. - -```py -import requests -from huggingface_hub.utils import hf_raise_for_status, HfHubHTTPError - -response = requests.post(...) -try: - hf_raise_for_status(response) -except HfHubHTTPError as e: - print(str(e)) # message formaté - e.request_id, e.server_message # détails retourné par le serveur - - # complétez le message d'erreur avec des informations additionnelles une fois que l'erreur est levée - e.append_to_message("\n`create_commit` expects the repository to exist.") - raise -``` - -[[autodoc]] huggingface_hub.utils.hf_raise_for_status - -### Erreurs HTTP - -Voici une liste des erreurs HTTP levée dans `huggingface_hub`. - -#### HfHubHTTPError - -`HfHubHTTPError` est la classe parente de toute erreur HTTP venant de HF Hub. Elle -va parser les réponses du serveur et formater le message d'erreur pour fournir le -plus d'informations possible à l'utilisateur. - -[[autodoc]] huggingface_hub.utils.HfHubHTTPError - -#### RepositoryNotFoundError - -[[autodoc]] huggingface_hub.utils.RepositoryNotFoundError - -#### GatedRepoError - -[[autodoc]] huggingface_hub.utils.GatedRepoError - -#### RevisionNotFoundError - -[[autodoc]] huggingface_hub.utils.RevisionNotFoundError - -#### EntryNotFoundError - -[[autodoc]] huggingface_hub.utils.EntryNotFoundError - -#### BadRequestError - -[[autodoc]] huggingface_hub.utils.BadRequestError - -#### LocalEntryNotFoundError - -[[autodoc]] huggingface_hub.utils.LocalEntryNotFoundError - -## Télémétrie - -`huggingface_hub` inclus un helper pour envoyer de la donnée de télémétrie. Cette information nous aide à debugger des problèmes -et prioriser les nouvelles fonctionnalités à développer. Les utilisateurs peuvent desactiver la collecte télémetrique à n'importe -quel moment et définissant la variable d'environnement `HF_HUB_DISABLE_TELEMETRY=1`. La télémétrie est aussi desactivée en mode -hors ligne (i.e. en définissant `HF_HUB_OFFLINE=1`). - -Si vous êtes mainteneur d'une librairie tiercce, envoyer des données de télémetrie est aussi facile que de faire un appel -à [`send_telemetry`]. Les données sont envoyées dans un thread séparé pour réduire autant que possible l'impact sur -l'expérience utilisateur. - -[[autodoc]] utils.send_telemetry - - -## Les validateurs - -`huggingface_hub` offre des validateurs personnalisés pour valider la méthode des -arguements automatiquement. La validation est inspirée du travail fait dans -[Pydantic](https://pydantic-docs.helpmanual.io/) pour valider les hints mais -avec des fonctionnalités plus limitées. - -### Décorateur générique - -[`~utils.validate_hf_hub_args`] est un décorateur générique pour encapsuler -des méthodes qui ont des arguments qui ont le nom d'`huggingface_hub`. -Par défaut, tous les arguments qui ont un validateur implémenté seront -validés. - -Si une entrée n'est pas valide, une erreur [`~utils.HFValidationError`] -est levée. Seul la première valeur invalide déclenche une erreur et -interrompt le processus de validation. - - -Utilisation: - -```py ->>> from huggingface_hub.utils import validate_hf_hub_args - ->>> @validate_hf_hub_args -... def my_cool_method(repo_id: str): -... print(repo_id) - ->>> my_cool_method(repo_id="valid_repo_id") -valid_repo_id - ->>> my_cool_method("other..repo..id") -huggingface_hub.utils._validators.HFValidationError: Cannot have -- or .. in repo_id: 'other..repo..id'. - ->>> my_cool_method(repo_id="other..repo..id") -huggingface_hub.utils._validators.HFValidationError: Cannot have -- or .. in repo_id: 'other..repo..id'. - ->>> @validate_hf_hub_args -... def my_cool_auth_method(token: str): -... print(token) - ->>> my_cool_auth_method(token="a token") -"a token" - ->>> my_cool_auth_method(use_auth_token="a use_auth_token") -"a use_auth_token" - ->>> my_cool_auth_method(token="a token", use_auth_token="a use_auth_token") -UserWarning: Both `token` and `use_auth_token` are passed (...). `use_auth_token` value will be ignored. -"a token" -``` - -#### validate_hf_hub_args - -[[autodoc]] utils.validate_hf_hub_args - -#### HFValidationError - -[[autodoc]] utils.HFValidationError - -### Validateurs d'arguments - -Les validateurs peuvent aussi être utilisés individuellement. Voici une liste de tous -les arguments qui peuvent être validés. - -#### repo_id - -[[autodoc]] utils.validate_repo_id - -#### smoothly_deprecate_use_auth_token - -Pas vraiment un validateur, mais utilisé aussi. - -[[autodoc]] utils.smoothly_deprecate_use_auth_token diff --git a/docs/source/fr/package_reference/webhooks_server.md b/docs/source/fr/package_reference/webhooks_server.md deleted file mode 100644 index 0ae7e5dc74..0000000000 --- a/docs/source/fr/package_reference/webhooks_server.md +++ /dev/null @@ -1,89 +0,0 @@ - - -# Serveurs WebHooks - -Les webhooks sont un pilier des fonctionnalités MLOps. Ils vous permettent de suivre tous les nouveaux -changements sur des dépôts spécifiques ou sur tous les dépôts appartenants à des utilisateurs/organisations que -vous voulez suivre. Pour en apprendre plus sur les webhooks dans le Hub Huggingface, vous pouvez consulter -le [guide](https://huggingface.co/docs/hub/webhooks) consacré aux webhooks. - - - -Consultez ce [guide](../guides/webhooks_server) pour un tutoriel pas à pas sur comment mettre en place votre serveur -webhooks et le déployer en tant que space. - - - - - -Ceci est une fonctionnalité expérimentale, ce qui signifie que nous travaillons toujours sur l'amélioration de l'API. -De gros changements pourraient être introduit dans le futur sans avertissement préalable. Faites en sorte -d'épingler la version d'`huggingface_hub` dans le requirements. Un avertissement est affiché lorsque vous utilisez -des fonctionnalités expérimentales. Vous pouvez le supprimer en définissant la variable d'environnement -`HF_HUB_DISABLE_EXPERIMENTAL_WARNING=1`. - - - -## Serveur - -Le serveur est une application [Gradio](https://gradio.app/). Il possède une interface pour afficher des instructions pour vous -ou vos utilisateurs et une API pour écouter les webhooks. Implémenter un endpoint de webhook est aussi simple que d'ajouter -un décorateur à une fonction. Vous pouvez ensuite le debugger en redirigeant le webhook vers votre machine (en utilisant -un tunnel Gradio) avant de le déployer sur un space. - -### WebhooksServer - -[[autodoc]] huggingface_hub.WebhooksServer - -### @webhook_endpoint - -[[autodoc]] huggingface_hub.webhook_endpoint - -## Payload - -[`WebhookPayload`] est la structure de donnée principale qui contient le payload de webhooks. -C'est une classe `pydantic` ce qui la rend très facile à utiliser avec FastAPI. Si vous la -passez en tant que paramètre d'un endpoint webhook, il sera automatiquement validé et parsé en tant qu'objet Python. - -Pour plus d'informations sur les payload webhooks, vous pouvez vous référer au [guide](https://huggingface.co/docs/hub/webhooks#webhook-payloads). -sur les payloads webhooks - -[[autodoc]] huggingface_hub.WebhookPayload - -### WebhookPayload - -[[autodoc]] huggingface_hub.WebhookPayload - -### WebhookPayloadComment - -[[autodoc]] huggingface_hub.WebhookPayloadComment - -### WebhookPayloadDiscussion - -[[autodoc]] huggingface_hub.WebhookPayloadDiscussion - -### WebhookPayloadDiscussionChanges - -[[autodoc]] huggingface_hub.WebhookPayloadDiscussionChanges - -### WebhookPayloadEvent - -[[autodoc]] huggingface_hub.WebhookPayloadEvent - -### WebhookPayloadMovedTo - -[[autodoc]] huggingface_hub.WebhookPayloadMovedTo - -### WebhookPayloadRepo - -[[autodoc]] huggingface_hub.WebhookPayloadRepo - -### WebhookPayloadUrl - -[[autodoc]] huggingface_hub.WebhookPayloadUrl - -### WebhookPayloadWebhook - -[[autodoc]] huggingface_hub.WebhookPayloadWebhook