Fine-tuning di un Transformer pre-addestrato, al fine di generare testi di canzoni |
Come generare testi di canzoni nello stile del vostro artista preferito attraverso il fine-tuning di un modello GPT-2. |
Aleksey Korshuk |
|
Addestramento di T5 in Tensorflow 2 |
Come addestrare T5 per qualsiasi attività usando Tensorflow 2. Questo notebook mostra come risolvere l'attività di "Question Answering" usando Tensorflow 2 e SQUAD. |
Muhammad Harris |
|
Addestramento di T5 con TPU |
Come addestrare T5 su SQUAD con Transformers e NLP. |
Suraj Patil |
|
Fine-tuning di T5 per la classificazione e scelta multipla |
Come effettuare il fine-tuning di T5 per le attività di classificazione a scelta multipla - usando un formato testo-a-testo - con PyTorch Lightning. |
Suraj Patil |
|
Fine-tuning di DialoGPT su nuovi dataset e lingue |
Come effettuare il fine-tuning di un modello DialoGPT su un nuovo dataset per chatbots conversazionali open-dialog. |
Nathan Cooper |
|
Modellamento di una lunga sequenza con Reformer |
Come addestrare su sequenze di lunghezza fino a 500 mila token con Reformer. |
Patrick von Platen |
|
Fine-tuning di BART per riassumere testi |
Come effettuare il fine-tuning di BART per riassumere testi con fastai usando blurr. |
Wayde Gilliam |
|
Fine-tuning di un Transformer pre-addestrato su tweet |
Come generare tweet nello stile del tuo account Twitter preferito attraverso il fine-tuning di un modello GPT-2. |
Boris Dayma |
|
Ottimizzazione di modelli 🤗 Hugging Face con Weights & Biases |
Un tutorial completo che mostra l'integrazione di W&B con Hugging Face. |
Boris Dayma |
|
Longformer pre-addestrato |
Come costruire una versione "long" degli esistenti modelli pre-addestrati. |
Iz Beltagy |
|
Fine-tuning di Longformer per QA |
Come effettuare il fine-tuning di un modello longformer per un task di QA. |
Suraj Patil |
|
Valutazione di modelli con 🤗NLP |
Come valutare longformer su TriviaQA con NLP . |
Patrick von Platen |
|
Fine-tuning di T5 per Sentiment Span Extraction |
Come effettuare il fine-tuning di T5 per la sentiment span extraction - usando un formato testo-a-testo - con PyTorch Lightning. |
Lorenzo Ampil |
|
Fine-tuning di DistilBert per la classificazione multi-classe |
Come effettuare il fine-tuning di DistilBert per la classificazione multi-classe con PyTorch. |
Abhishek Kumar Mishra |
|
Fine-tuning di BERT per la classificazione multi-etichetta |
Come effettuare il fine-tuning di BERT per la classificazione multi-etichetta con PyTorch. |
Abhishek Kumar Mishra |
|
Accelerazione del fine-tuning con il Dynamic Padding / Bucketing |
Come velocizzare il fine-tuning di un fattore 2X usando il dynamic padding / bucketing. |
Michael Benesty |
|
Pre-addestramento di Reformer per Masked Language Modeling |
Come addestrare un modello Reformer usando livelli di self-attention bi-direzionali. |
Patrick von Platen |
|
Espansione e fine-tuning di Sci-BERT |
Come incrementare il vocabolario di un modello SciBERT - pre-addestrato da AllenAI sul dataset CORD - e crearne una pipeline. |
Tanmay Thakur |
|
Fine-tuning di BlenderBotSmall per riassumere testi usando Trainer API |
Come effettuare il fine-tuning di BlenderBotSmall per riassumere testi su un dataset personalizzato, usando Trainer API. |
Tanmay Thakur |
|
Fine-tuning di Electra e interpretazione con Integrated Gradients |
Come effettuare il fine-tuning di Electra per l'analisi dei sentimenti e intepretare le predizioni con Captum Integrated Gradients. |
Eliza Szczechla |
|
Fine-tuning di un modello GPT-2 non inglese con la classe Trainer |
Come effettuare il fine-tuning di un modello GPT-2 non inglese con la classe Trainer. |
Philipp Schmid |
|
Fine-tuning di un modello DistilBERT per la classficazione multi-etichetta |
Come effettuare il fine-tuning di un modello DistilBERT per l'attività di classificazione multi-etichetta. |
Dhaval Taunk |
|
Fine-tuning di ALBERT per la classifcazione di coppie di frasi |
Come effettuare il fine-tuning di un modello ALBERT - o un altro modello BERT-based - per l'attività di classificazione di coppie di frasi. |
Nadir El Manouzi |
|
Fine-tuning di Roberta per l'analisi di sentimenti |
Come effettuare il fine-tuning di un modello Roberta per l'analisi di sentimenti. |
Dhaval Taunk |
|
Valutazione di modelli che generano domande |
Quanto sono accurante le risposte alle domande generate dal tuo modello transformer seq2seq? |
Pascal Zoleko |
|
Classificazione di testo con DistilBERT e Tensorflow |
Come effettuare il fine-tuning di DistilBERT per la classificazione di testo in TensorFlow. |
Peter Bayerle |
|
Utilizzo di BERT per riassumere testi con un modello Encoder-Decoder su CNN/Dailymail |
Come avviare "a caldo" un EncoderDecoderModel attraverso l'utilizzo di un checkpoint google-bert/bert-base-uncased per riassumere testi su CNN/Dailymail. |
Patrick von Platen |
|
Utilizzo di RoBERTa per riassumere testi con un modello Encoder-Decoder su BBC XSum |
Come avviare "a caldo" un EncoderDecoderModel (condiviso) attraverso l'utilizzo di un checkpoint FacebookAI/roberta-base per riassumere testi su BBC/XSum. |
Patrick von Platen |
|
Fine-tuning di TAPAS su Sequential Question Answering (SQA) |
Come effettuare il fine-tuning di un modello TapasForQuestionAnswering attraverso l'utilizzo di un checkpoint tapas-base sul dataset Sequential Question Answering (SQA). |
Niels Rogge |
|
Valutazione di TAPAS su Table Fact Checking (TabFact) |
Come valutare un modello TapasForSequenceClassification - fine-tuned con un checkpoint tapas-base-finetuned-tabfact - usando una combinazione delle librerie 🤗 datasets e 🤗 transformers. |
Niels Rogge |
|
Fine-tuning di mBART per la traduzione |
Come effettuare il fine-tuning di mBART usando Seq2SeqTrainer per la traduzione da hindi a inglese. |
Vasudev Gupta |
|
Fine-tuning di LayoutLM su FUNSD (un dataset per la comprensione della forma) |
Come effettuare il fine-tuning di un modello LayoutLMForTokenClassification sul dataset FUNSD per l'estrazione di informazioni da documenti scannerizzati. |
Niels Rogge |
|
Fine-tuning di DistilGPT2 e generazione di testo |
Come effettuare il fine-tuning di DistilGPT2 e generare testo. |
Aakash Tripathi |
|
Fine-tuning di LED fino a 8 mila token |
Come effettuare il fine-tuning di LED su PubMed per riassumere "lunghi" testi. |
Patrick von Platen |
|
Valutazione di LED su Arxiv |
Come valutare efficacemente LED sull'attività di riassumere "lunghi" testi. |
Patrick von Platen |
|
Fine-tuning di LayoutLM su RVL-CDIP, un dataset per la classificazione di documenti (immagini) |
Come effettuare il fine-tuning di un modello LayoutLMForSequenceClassification sul dataset RVL-CDIP per la classificazione di documenti scannerizzati. |
Niels Rogge |
|
Decodifica Wav2Vec2 CTC con variazioni di GPT2 |
Come decodificare sequenze CTC, variate da modelli di linguaggio. |
Eric Lam |
|
Fine-tuning di BART per riassumere testi in due lingue con la classe Trainer |
Come effettuare il fine-tuning di BART per riassumere testi in due lingue usando la classe Trainer. |
Eliza Szczechla |
|
Valutazione di Big Bird su Trivia QA |
Come valutare BigBird su question answering di "lunghi" documenti attraverso Trivia QA. |
Patrick von Platen |
|
Creazione di sottotitoli per video usando Wav2Vec2 |
Come creare sottotitoli per qualsiasi video di YouTube trascrivendo l'audio con Wav2Vec. |
Niklas Muennighoff |
|
Fine-tuning di Vision Transformer su CIFAR-10 usando PyTorch Lightning |
Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e PyTorch Lightning. |
Niels Rogge |
|
Fine-tuning di Vision Transformer su CIFAR-10 usando 🤗 Trainer |
Come effettuare il fine-tuning di Vision Transformer (ViT) su CIFAR-10 usando HuggingFace Transformers, Datasets e 🤗 Trainer. |
Niels Rogge |
|
Valutazione di LUKE su Open Entity, un dataset di entity typing |
Come valutare un modello LukeForEntityClassification sul dataset Open Entity. |
Ikuya Yamada |
|
Valutazione di LUKE su TACRED, un dataset per l'estrazione di relazioni |
Come valutare un modello LukeForEntityPairClassification sul dataset TACRED. |
Ikuya Yamada |
|
Valutazione di LUKE su CoNLL-2003, un importante benchmark NER |
Come valutare un modello LukeForEntitySpanClassification sul dataset CoNLL-2003. |
Ikuya Yamada |
|
Valutazione di BigBird-Pegasus su dataset PubMed |
Come valutare un modello BigBirdPegasusForConditionalGeneration su dataset PubMed. |
Vasudev Gupta |
|
Classificazione di emozioni dal discorso con Wav2Vec2 |
Come utilizzare un modello pre-addestrato Wav2Vec2 per la classificazione di emozioni sul dataset MEGA. |
Mehrdad Farahani |
|
Rilevamento oggetti in un'immagine con DETR |
Come usare un modello addestrato DetrForObjectDetection per rilevare oggetti in un'immagine e visualizzare l'attention. |
Niels Rogge |
|
Fine-tuning di DETR su un dataset personalizzato per rilevare oggetti |
Come effettuare fine-tuning di un modello DetrForObjectDetection su un dataset personalizzato per rilevare oggetti. |
Niels Rogge |
|
Fine-tuning di T5 per Named Entity Recognition |
Come effettuare fine-tunining di T5 per un'attività di Named Entity Recognition. |
Ogundepo Odunayo |
|