🔨 Intégrations
Hugging Face est le Github de la communauté d’apprentissage automatique, avec des centaines de milliers de modèles pré-formés et 10 000 jeux de données actuellement disponibles. Vous pouvez accéder librement à des modèles et des jeux de données partagés par d’autres experts de l’industrie ou héberger et déployer vos modèles sur Hugging Face.
Quelques exemples de modèles disponibles dans la bibliothèque de Hugging Face incluent :
En Hugging Face, plus de 130 000 modèles d’apprentissage automatique sont disponibles via l’API publique, que vous pouvez utiliser et tester gratuitement sur https://huggingface.co/models. De plus, si vous avez besoin d’une solution pour les scénarios de production, vous pouvez utiliser les points de terminaison d’inférence de la face Huggingfront, qui peuvent être déployés et accédés à https://huggingface.co/docs/inference-endpoints/index.
ILLA Builder fournit des douzaines de composants front-end couramment utilisés, vous permettant de construire rapidement différentes interfaces front-end en fonction de vos besoins spécifiques. En même temps, ILLA offre une connexion à Face, vous permettant de vous connecter rapidement à l’API, d’envoyer des demandes et de recevoir des données retournées. En connectant l’API et les composants front-end, vous pouvez implémenter l’exigence que les utilisateurs puissent entrer du contenu via le front-end et le soumettre à l’API. L’API retourne le contenu généré à afficher sur le front-end.
Propriétés | Requis | Libellé |
---|---|---|
Nom | Obligatoire | Définir un nom de ressource qui sera utilisé pour l’affichage dans ILLA |
Jeton | Obligatoire | Accès utilisateur ou jeton d’API. Vous pouvez l’obtenir dans https://huggingface.co/settings/tokens. |
Propriétés | Requis | Libellé |
---|---|---|
ID du modèle | Obligatoire | Rechercher des modèles : https://huggingface.co/models |
Type de paramètre | Obligatoire | Le type de paramètre de votre terminal. Par exemple, si votre point de terminaison a besoin d’une entrée de texte, choisissez le paramètre “entrées” avec le texte. Si votre point de terminaison a besoin d’une entrée JSON, choisissez le paramètre « Entrée » avec JSON ou clé-valeur. |
Paramètre | Obligatoire | Entrez votre paramètre. Utilisez {{ componentName.value }} pour utiliser les données des composants. |
Basé sur le scénario d’utilisation que vous avez décrit, construisez une interface frontale. Par exemple, vous pouvez utiliser des éléments d’entrée et d’image si votre produit prend du texte et envoie une image. Si votre produit prend du texte et des résultats générés, vous pouvez utiliser des composants de texte et de texte.
L’image suivante est un exemple de page d’accueil pour un produit qui répond à des questions basées sur le contexte.
Cliquez sur + Nouveau dans la liste d’actions et sélectionnez l’API d’Inférence de Visage.
Remplissez le formulaire pour vous connecter à votre Face:
Nom : Le nom qui sera affiché dans ILLA
Token: Rendez-vous dans vos paramètres de profil
Confirmez les informations du modèle dans la face d’accrochage avant de configurer les actions :
Sélectionnez un modèle dans la [page du modèle de visage Huggingface.co/models)
Utilisons deepset/roberta-base-squad2 comme exemple. Entrez la page de détail > cliquez sur Déployer > Cliquez sur Inférence API
Les paramètres après “entrées”
sont ce que vous devez remplir en ILLA.
Dans ILLA Builder, nous devons remplir l’ID du modèle et le paramètre. En prenant le modèle ci-dessus comme exemple, le “inputs”
est une paire clé-valeur, donc nous pouvons le remplir avec clé-valeur ou JSON.
Et nous prenons également en charge l’entrée de texte et l’entrée binaire qui peut répondre à toutes les connexions de l’API d’Inférence de Face Hugging.
Pour passer l’entrée front-end de l’utilisateur à l’API, vous pouvez utiliser {{ pour récupérer les données entrées dans le composant. Par exemple, input2 est le composant de saisie de la question et input1 est le composant de contexte d’entrée, nous pouvons remplir question
et context
dans la clé, et remplir {{ input.value }}
dans la valeur:
{
"question": {{input2.value}},
"context": {{input1.value}}
}
Avant d’afficher les données de sortie de l’Action dans le composant frontal, nous devons confirmer dans quel champ la sortie des différents modèles est placée. Toujours en prenant comme exemple deepset/roberta-base-squad2
, les résultats sont les suivants:
Donc nous pouvons obtenir la réponse avec {{ textQuestion.data[0].answer }}
(la textQuestion
est le nom de l’action).