Hugging Face
Dades | |||||
---|---|---|---|---|---|
Tipus | negoci comunitat virtual | ||||
Camp de treball | aprenentatge automàtic | ||||
Activitat | |||||
Membre de | BigScience Research Workshop DataCite | ||||
Governança corporativa | |||||
Seu | |||||
Seu | |||||
Treballadors | 170 (2023) | ||||
Filial | |||||
Indicador econòmic | |||||
Ingressos totals | 15.000.000 $ (2022) | ||||
Lloc web | huggingface.co | ||||
Hugging Face, Inc. és una empresa nord-americana que desenvolupa eines per crear aplicacions mitjançant l'aprenentatge automàtic. És més notable per la seva biblioteca de transformadors creada per a aplicacionsde processament de llenguatge natural i la seva plataforma que permet als usuaris compartir models i conjunts de dades d'aprenentatge automàtic.
Història
[modifica]L'empresa va ser fundada el 2016 pels empresaris francesos Clément Delangue, Julien Chaumond i Thomas Wolf originalment com una empresa que desenvolupava una aplicació de chatbot dirigida a adolescents.[1] Després d'aprovisionar el model que hi ha darrere del chatbot, l'empresa es va centrar en ser una plataforma per a l'aprenentatge automàtic.
El març de 2021, Hugging Face va recaptar 40 milions de dòlars en una ronda de finançament de la Sèrie B. [2]
El 28 d'abril de 2021, la companyia va llançar el BigScience Research Workshop en col·laboració amb diversos altres grups de recerca per llançar un gran model de llenguatge obert.[3] El 2022, el taller va concloure amb l'anunci de BLOOM, un gran model de llenguatge multilingüe amb 176.000 milions de paràmetres.[4]
El febrer de 2023, la companyia va anunciar una associació amb Amazon Web Services (AWS) que permetria als productes d'Hugging Face disponibles per als clients d'AWS utilitzar-los com a elements bàsics per a les seves aplicacions personalitzades. La companyia també va dir que la propera generació de BLOOM s'executarà amb Trainium, un xip d'aprenentatge automàtic propietari creat per AWS.
Serveis i tecnologies
[modifica]Biblioteca de Transformadors
[modifica]La biblioteca Transformers és un paquet Python que conté implementacions de codi obert de models de transformador per a tasques de text, imatge i àudio. És compatible amb les biblioteques d'aprenentatge profund PyTorch, TensorFlow i JAX i inclou implementacions de models notables com BERT i GPT-2.[5] La biblioteca es va anomenar originalment "pytorch-pretrained-bert" [6] que després va ser rebatejada per "pytorch-transformers" i finalment "transformers".
Hugging Face Hub
[modifica]- Repositoris de codi basats en Git, amb funcions similars a GitHub, incloses discussions i sol·licituds d'extracció de projectes.
- models, també amb control de versions basat en Git;
- conjunts de dades, principalment en text, imatges i àudio;
- aplicacions web ("espais" i "widgets"), destinades a demostracions a petita escala d'aplicacions d'aprenentatge automàtic.
Altres Biblioteques
[modifica]A més de Transformers i Hugging Face Hub, l'ecosistema Hugging Face conté biblioteques per a altres tasques, com ara processament de conjunts de dades ("Conjunts de dades"), avaluació de models ("Avaluar"), simulació ("Simular"), demostracions d'aprenentatge automàtic (" Grau").[7]
Referències
[modifica]- ↑ «Hugging Face wants to become your artificial BFF» (en anglès americà). TechCrunch, 09-03-2017. [Consulta: 20 agost 2022].[Enllaç no actiu]
- ↑ «Hugging Face raises $40 million for its natural language processing library» (en anglès), 11-03-2021.
- ↑ «Inside BigScience, the quest to build a powerful open language model» (en anglès), 10-01-2022.
- ↑ «BLOOM» (en anglès). bigscience.huggingface.co. [Consulta: 20 agost 2022].
- ↑ «🤗 Transformers» (en anglès). huggingface.co. [Consulta: 20 agost 2022].
- ↑ «First release». Github, 17-11-2018. [Consulta: 28 març 2023].
- ↑ «Hugging Face - Documentation» (en anglès). huggingface.co. [Consulta: 18 febrer 2023].