Spaces:
Runtime error
Runtime error
A newer version of the Gradio SDK is available:
5.20.0
Comunidad
Esta p谩gina agrupa los recursos de 馃 Transformers desarrollados por la comunidad.
Los recursos de la comunidad:
Recurso | Descripci贸n | Autor |
---|---|---|
Hugging Face Transformers Glossary Flashcards | Un conjunto de flashcards basadas en el [Glosario de documentos de Transformers] (glosario) que se ha puesto en un formato que se puede aprender/revisar f谩cilmente usando [Anki] (https://apps.ankiweb.net/) una fuente abierta, aplicaci贸n de multiplataforma dise帽ada espec铆ficamente para la retenci贸n de conocimientos a largo plazo. Ve este Introductory video on how to use the flashcards. | Darigov Research |
Los cuadernos de la comunidad:
Cuaderno | Descripci贸n | Autor | |
---|---|---|---|
Ajustar un transformador preentrenado para generar letras | C贸mo generar letras al estilo de tu artista favorito ajustando un modelo GPT-2 | Aleksey Korshuk | |
Entrenar T5 en Tensorflow 2 | C贸mo entrenar a T5 para cualquier tarea usando Tensorflow 2. Este cuaderno demuestra una tarea de preguntas y respuestas implementada en Tensorflow 2 usando SQUAD | Muhammad Harris | |
Entrenar T5 en TPU | C贸mo entrenar a T5 en SQUAD con Transformers y Nlp | Suraj Patil | |
Ajustar T5 para Clasificaci贸n y Opci贸n M煤ltiple | C贸mo ajustar T5 para clasificaci贸n y tareas de opci贸n m煤ltiple usando un formato de texto a texto con PyTorch Lightning | Suraj Patil | |
Ajustar DialoGPT en nuevos conjuntos de datos e idiomas | C贸mo ajustar el modelo DialoGPT en un nuevo conjunto de datos para chatbots conversacionales de di谩logo abierto | Nathan Cooper | |
Modelado de secuencias largas con Reformer | C贸mo entrenar en secuencias de hasta 500,000 tokens con Reformer | Patrick von Platen | |
Ajustar BART para resumir | C贸mo ajustar BART para resumir con fastai usando blurr | Wayde Gilliam | |
Ajustar un Transformador previamente entrenado en los tweets de cualquier persona | C贸mo generar tweets al estilo de tu cuenta de Twitter favorita ajustando un modelo GPT-2 | Boris Dayma | |
Optimizar 馃 modelos de Hugging Face con pesos y sesgos | Un tutorial completo que muestra la integraci贸n de W&B con Hugging Face | Boris Dayma | |
Preentrenar Longformer | C贸mo construir una versi贸n "larga" de modelos preentrenados existentes | Iz Beltagy | |
Ajustar Longformer para control de calidad | C贸mo ajustar el modelo antiguo para la tarea de control de calidad | Suraj Patil | |
Evaluar modelo con 馃nlp | C贸mo evaluar longformer en TriviaQA con nlp |
Patrick von Platen | |
Ajustar fino de T5 para la extracci贸n de amplitud de opini贸n | C贸mo ajustar T5 para la extracci贸n de intervalos de opiniones mediante un formato de texto a texto con PyTorch Lightning | Lorenzo Ampil | |
Ajustar fino de DistilBert para la clasificaci贸n multiclase | C贸mo ajustar DistilBert para la clasificaci贸n multiclase con PyTorch | Abhishek Kumar Mishra | |
Ajustar BERT para la clasificaci贸n de etiquetas m煤ltiples | C贸mo ajustar BERT para la clasificaci贸n de m煤ltiples etiquetas usando PyTorch | Abhishek Kumar Mishra | |
Ajustar T5 para resumir | C贸mo ajustar T5 para resumir en PyTorch y realizar un seguimiento de los experimentos con WandB | Abhishek Kumar Mishra | |
Acelerar el ajuste fino en transformadores con Dynamic Padding/Bucketing | C贸mo acelerar el ajuste fino en un factor de 2 usando relleno din谩mico/cubetas | Michael Benesty | |
Preentrenar Reformer para modelado de lenguaje enmascarado | C贸mo entrenar un modelo Reformer con capas de autoatenci贸n bidireccionales | Patrick von Platen | |
Ampliar y ajustar Sci-BERT | C贸mo aumentar el vocabulario de un modelo SciBERT preentrenado de AllenAI en el conjunto de datos CORD y canalizarlo. | Tanmay Thakur | |
Ajustar fino de BlenderBotSmall para res煤menes usando la API de Entrenador | C贸mo ajustar BlenderBotSmall para resumir en un conjunto de datos personalizado, utilizando la API de Entrenador. | Tanmay Thakur | |
Ajustar Electra e interpreta con gradientes integrados | C贸mo ajustar Electra para el an谩lisis de sentimientos e interpretar predicciones con Captum Integrated Gradients | Eliza Szczechla | |
ajustar un modelo GPT-2 que no est谩 en ingl茅s con la clase Trainer | C贸mo ajustar un modelo GPT-2 que no est谩 en ingl茅s con la clase Trainer | Philipp Schmid | |
Ajustar un modelo DistilBERT para la tarea de clasificaci贸n de m煤ltiples etiquetas | C贸mo ajustar un modelo DistilBERT para la tarea de clasificaci贸n de m煤ltiples etiquetas | Dhaval Taunk | |
Ajustar ALBERT para la clasificaci贸n de pares de oraciones | C贸mo ajustar un modelo ALBERT u otro modelo basado en BERT para la tarea de clasificaci贸n de pares de oraciones | Nadir El Manouzi | |
Ajustar a Roberta para el an谩lisis de sentimientos | C贸mo ajustar un modelo de Roberta para el an谩lisis de sentimientos | Dhaval Taunk | |
Evaluaci贸n de modelos de generaci贸n de preguntas | 驴Qu茅 tan precisas son las respuestas a las preguntas generadas por tu modelo de transformador seq2seq? | Pascal Zoleko | |
Clasificar texto con DistilBERT y Tensorflow | C贸mo ajustar DistilBERT para la clasificaci贸n de texto en TensorFlow | Peter Bayerle | |
Aprovechar BERT para el resumen de codificador y decodificador en CNN/Dailymail | C贸mo iniciar en caliente un EncoderDecoderModel con un punto de control bert-base-uncased para resumir en CNN/Dailymail | Patrick von Platen | |
Aprovechar RoBERTa para el resumen de codificador-decodificador en BBC XSum | C贸mo iniciar en caliente un EncoderDecoderModel compartido con un punto de control roberta-base para resumir en BBC/XSum | Patrick von Platen | |
Ajustar TAPAS en Sequential Question Answering (SQA) | C贸mo ajustar TapasForQuestionAnswering con un punto de control tapas-base en el conjunto de datos del Sequential Question Answering (SQA) | Niels Rogge | |
Evaluar TAPAS en Table Fact Checking (TabFact) | C贸mo evaluar un TapasForSequenceClassification ajustado con un punto de control tapas-base-finetuned-tabfact usando una combinaci贸n de 馃 conjuntos de datos y 馃 bibliotecas de transformadores | Niels Rogge | |
Ajustar de mBART para traducci贸n | C贸mo ajustar mBART utilizando Seq2SeqTrainer para la traducci贸n del hindi al ingl茅s | Vasudev Gupta | |
Ajustar LayoutLM en FUNSD (a form understanding dataset) | C贸mo ajustar LayoutLMForTokenClassification en el conjunto de datos de FUNSD para la extracci贸n de informaci贸n de documentos escaneados | Niels Rogge | |
Ajustar DistilGPT2 y genere texto | C贸mo ajustar DistilGPT2 y generar texto | Aakash Tripathi | |
Ajustar LED en tokens de hasta 8K | C贸mo ajustar LED en pubmed para res煤menes de largo alcance | Patrick von Platen | |
Evaluar LED en Arxiv | C贸mo evaluar efectivamente LED en res煤menes de largo alcance | Patrick von Platen | |
Ajustar fino de LayoutLM en RVL-CDIP (un conjunto de datos de clasificaci贸n de im谩genes de documentos) | C贸mo ajustar LayoutLMForSequenceClassification en el conjunto de datos RVL-CDIP para la clasificaci贸n de documentos escaneados | Niels Rogge | |
Decodificaci贸n Wav2Vec2 CTC con ajuste GPT2 | C贸mo decodificar la secuencia CTC con el ajuste del modelo de lenguaje | Eric Lam | |
Ajustar BART para res煤menes en dos idiomas con la clase Trainer | C贸mo ajustar BART para res煤menes en dos idiomas con la clase Trainer | Eliza Szczechla | |
Evaluar Big Bird en Trivia QA | C贸mo evaluar BigBird en respuesta a preguntas de documentos largos en Trivia QA | Patrick von Platen | |
Crear subt铆tulos de video usando Wav2Vec2 | C贸mo crear subt铆tulos de YouTube a partir de cualquier v铆deo transcribiendo el audio con Wav2Vec | Niklas Muennighoff | |
Ajustar el transformador de visi贸n en CIFAR-10 usando PyTorch Lightning | C贸mo ajustar el transformador de visi贸n (ViT) en CIFAR-10 usando transformadores HuggingFace, conjuntos de datos y PyTorch Lightning | Niels Rogge | |
Ajustar el Transformador de visi贸n en CIFAR-10 usando el 馃 Entrenador | C贸mo ajustar el Vision Transformer (ViT) en CIFAR-10 usando HuggingFace Transformers, Datasets y el 馃 Trainer | Niels Rogge | |
Evaluar LUKE en Open Entity, un conjunto de datos de tipificaci贸n de entidades | C贸mo evaluar LukeForEntityClassification en el conjunto de datos de entidad abierta | Ikuya Yamada | |
Evaluar LUKE en TACRED, un conjunto de datos de extracci贸n de relaciones | C贸mo evaluar LukeForEntityPairClassification en el conjunto de datos TACRED | Ikuya Yamada | |
Evaluar LUKE en CoNLL-2003, un punto de referencia importante de NER | C贸mo evaluar LukeForEntitySpanClassification en el conjunto de datos CoNLL-2003 | Ikuya Yamada | |
Evaluar BigBird-Pegasus en el conjunto de datos de PubMed | C贸mo evaluar BigBirdPegasusForConditionalGeneration en el conjunto de datos de PubMed | Vasudev Gupta | |
Clasificaci贸n de emociones del habla con Wav2Vec2 | C贸mo aprovechar un modelo Wav2Vec2 preentrenado para la clasificaci贸n de emociones en el conjunto de datos MEGA | Mehrdad Farahani | |
Detectar objetos en una imagen con DETR | C贸mo usar un modelo entrenado DetrForObjectDetection para detectar objetos en una imagen y visualizar la atenci贸n | Niels Rogge | |
Ajustar el DETR en un conjunto de datos de detecci贸n de objetos personalizados | C贸mo ajustar DetrForObjectDetection en un conjunto de datos de detecci贸n de objetos personalizados | Niels Rogge | |
Ajustar T5 para el reconocimiento de entidades nombradas | C贸mo ajustar T5 en una tarea de reconocimiento de entidad nombrada | Ogundepo Odunayo |