🔨 Integrasjoner
Hugging ansikt er Github fra maskinens læringssamfunn, med hundretusener av forhåndsutdannede modeller og 10 000 datasett som for tiden er tilgjengelig. Du kan fritt få tilgang til modeller og datasett som andre industrieksperter eller -verter, og bruke modellene dine på Håpeing-Face.
Noen eksempler på modeller som er tilgjengelig i biblioteket Hugging Face omfatter:
I Hugging Face, finnes over 130 000 maskinlæringsmodeller over API, som du kan bruke og teste gratis på https://huggingface.co/models. I tillegg, hvis du trenger en løsning for produksjonsscenarier, kan du bruke Hugging Face’s Inference Endpoints, som kan distribueres og nås på https://huggingface.co/docs/inference-endpoints/index.
ILLA-bygger gir dusinvis av vanlig brukte komponenter, slik at du kan bygge forskjellige frontendens grensesnitt basert på dine spesifikke behov raskt. Samtidig tilbyr ILLA en tilkobling til Hugging Face, noe som tillater deg å raskt koble til API-et, sende forespørsler og motta returnerte data. Etter å koble til API og front-end komponenter, du kan implementere kravet til at brukerne kan legge inn innhold gjennom forenden og sende det inn på API-et. API returnerer det genererte innholdet som skal vises på forsiden.
Egenskaper | Påkrevd | Beskrivelse |
---|---|---|
Navn | obligatorisk | Angi et ressursnavn som skal brukes til visning i ILLA |
Sjetong | obligatorisk | Brukeren har tilgang til eller API token. Du kan få det på https://huggingface.co/settings/tokens. |
Egenskaper | Påkrevd | Beskrivelse |
---|---|---|
Modell ID | obligatorisk | Søk etter modeller: https://huggingface.co/model |
Type parameter | obligatorisk | Parameteren på endepunktet ditt. For eksempel, hvis sluttpunktet ditt trenger en tekstinngang, velg fyll i “inputs” parameter med tekst. Hvis ditt endepunkt trenger en JSON inngang, velg Fyll inn “inputs” parameter med JSON eller nøkkel-verdi. |
Parametre | obligatorisk | Skriv inn parameteren din. Bruk {{ componentName.value }} til å bruke data for komponenter. |
Basert på det forventede bruksscenarioet du beskrevet, bygg et grensegrensesnitt. For eksempel kan du bruke inndata og bildekomponenter hvis produktet ditt tar inn tekst og skrive ut et bilde. Hvis produktet ditt tar i tekst og utdata generert tekst, kan du bruke inndata og tekstkomponenter.
Følgende bilde er et eksempel på en frontendeside for et produkt som svarer på spørsmål basert på kontekst.
Klikk + Ny i handlingslisten og velg Hugging Ansiktsinnhøst API.
Fyll ut skjemaet for å koble til ditt Hugging Face:
Navn: Navnet som skal vises i ILLA
Token: Få deg i dine Hugging Face profilinnstillinger
Bekreft modellinformasjonen i Hugging Face før du konfigurerer handlingene:
Velg en modell i Hugging Face Model Page
La oss bruke deepset/roberta-base-squad2 som eksempel. Skriv inn detaljsiden > klikk deploy > Click Inference API
Parameterne etter «inputs» er hva du skal fylle inn i ILLA.
I ILLA-byggeren skal vi fylle ut Model ID og Parameter. Ved å ta ovennevnte modell som et eksempel, er ‘inputs” et nøkkelverdipar, så vi kan fylle inn med nøkkelverdi eller JSON.
Og vi støtter også tekstinngangen og binært inndata som kan møte alle Hugging Face Inference API tilkoblinger.
For å sende brukerens front-end inndata til API, kan du bruke {{ for å hente data innskrevet i komponenten. For eksempel er input2 komponenten for å legge til spørsmålet og input1 er komponenten for å legge inn kontekst, vi kan angi ‘spørsmål’ og ‘kontekst’ i nøkkel, og fylle ’{{ input.value }}’ i verdi:
{
"spørsmål": {{input2.value}},
"kontekst": {{input1.value}}
}
Før det vises data fra handlingen i frontendens komponent bør vi bekrefte hvilket felt utdata av ulike modeller som er plassert i. Fortsatt å ta dypset/roberta-base-squad2
som et eksempel, er resultatene som følger:
Så vi kan få svaret med {{ textQuestion.data[0].answer }}
(textQuestion
er navnet på handlingen).