Flash-IT-HA-Classifier-Cossim
This is a sentence-transformers model finetuned from nickprock/sentence-bert-base-italian-xxl-uncased. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: nickprock/sentence-bert-base-italian-xxl-uncased
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 tokens
- Similarity Function: Cosine Similarity
- Language: it
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("mrinaldi/flash-it-ha-classifier-cossim")
# Run inference
sentences = [
"[Rappresentazione schematica del LISA Technology Package, il cuore dell'esperimento, dove sono ospitate le due masse di test. Crediti: ESA/ATG medialab](<https://www.media.inaf.it/wp-content/uploads/2016/02/ESA_LISA-Pathfinder_LTP_core_assembly_orig_2k.jpg>)\n>>>> \n>>>> Rappresentazione schematica del LISA Technology Package, il cuore dell'esperimento, dove sono ospitate le due masse di test. Crediti: ESA/ATG medialab\n>>>> \n>>>> Non ancora in balia delle onde gravitazionali, ma poco ci manca. Ubbidendo all’equivalente spaziale del celebre “Smithers, libera i cani” di simpsoniana memoria, LISA Pathfinder ha aperto le sue due mani meccaniche, “otto dita” per ciascuna, liberando – _quasi_ – [i due cubetti d’oro-platino](<https://www.media.inaf.it/2011/11/14/sensori-onde-gravitazionali/>) (4.6 cm di lato per 1.96 kg a testa) che costituiscono il cuore dell’esperimento destinato ad aprire la strada alla ricerca delle elusive onde predette da Einstein.\n>>>> \n>>>> _Quasi_ , appunto, perché le due masse di test non sono ancora completamente libere di galleggiare nel vuoto. Ma per LISA Pathfinder, il dimostratore per [eLISA](<https://en.wikipedia.org/wiki/Evolved_Laser_Interferometer_Space_Antenna>) lanciato lo scorso dicembre e giunto a destinazione – nel primo punto lagrangiano, L1 – il 22 gennaio, dopo un viaggio nello spazio durato sei settimane, si tratta comunque d’una tappa cruciale, che ha tenuto il team dei progettisti con il fiato sospeso fino all’ultimo istante.\n>>>> \n>>>> «Ora c'è grande eccitazione per il rilascio finale delle massa di prova, perché le impercettibili forze e velocità coinvolte», dice **Hans Rozemeijer** , _payload engineer_ del satellite, «non potevano essere collaudate a terra: in presenza della gravità, non era fisicamente possibile».\n>>>> \n>>>> [In questa foto, unoa delle due masse di test di LISA Pathfinder. Ogni massa è un cubo d'oro-platino di 4.6 cm di lato pesante circa 1.96 kg. Crediti: CGS SpA](<https://www.media.inaf.it/wp-content/uploads/2016/02/LPF_test_mass_IMG_9829.jpg>)\n>>>> \n>>>> In questa foto, una delle due masse di test di LISA Pathfinder. Ogni massa è un cubo d'oro-platino di 4.6 cm di lato pesante circa 1.96 kg. Crediti: CGS SpA\n>>>> \n>>>> Una procedura talmente delicata, questa del rilascio delle due masse, da essere stata suddivisa in due fasi. Contestualmente all’apertura della mano meccanica avvenuta oggi, il sistema di bordo ha iniziato a pompare verso lo spazio esterno le molecole di gas residue. Un’operazione, questa tesa a ricreare il vuoto spinto attorno alle masse di test, che richiederà un paio di settimane. Una volta completata, l’ultimo dei meccanismi di ancoraggio ancora attivi, il GPRM ( _Grabbing, Positioning and Release Mechanism_ ) lascerà anch’esso la presa: il 15 febbraio per uno dei due cubi, il giorno successivo per l’altro.\n>>>> \n>>>> Uscito di scena anche il GPRM, le due masse di test, non più in contatto meccanico con la sonda, saranno libere di fluttuare al centro esatto (errore massimo consentito: 200 micrometri) del loro alloggio iper-tecnologico. Dove un interferometro laser – già attivo dal 13 gennaio scorso – ne rileverà il benché minimo spostamento. A quel punto, siamo al 23 febbraio, si entrerà nel cosiddetto _operating mode_ , con l’intera navicella spaziale intenta a muoversi attorno a uno dei due cubi in caduta libera per _mantenere le distanze_ (4 mm…). L’inizio delle attività scientifiche è in calendario per il primo di marzo.\n *[55 minuti fa]: Lunedì 19 gennaio 2015 alle ore 10.28\n *[1 h]: Lunedì 19 gennaio 2015 alle ore 10.05\n *[33 minuti fa]: 10.50\n *[attr]: attribute\n *[HTML]: HyperText Markup Language\n *[P:]: Phone\n",
'LISA Pathfinder molla la presa',
'Lisa si può fare. L’Esa promuove il triangolo spaziale',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Triplet
- Dataset:
ha-test
- Evaluated with
TripletEvaluator
Metric | Value |
---|---|
cosine_accuracy | 0.854 |
dot_accuracy | 0.135 |
manhattan_accuracy | 0.8586 |
euclidean_accuracy | 0.8584 |
max_accuracy | 0.8586 |
Triplet
- Dataset:
ha-test
- Evaluated with
TripletEvaluator
Metric | Value |
---|---|
cosine_accuracy | 0.8575 |
dot_accuracy | 0.1322 |
manhattan_accuracy | 0.8622 |
euclidean_accuracy | 0.8623 |
max_accuracy | 0.8623 |
Training Details
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: stepsper_device_train_batch_size
: 64per_device_eval_batch_size
: 16learning_rate
: 2e-05warmup_ratio
: 0.1fp16
: True
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: stepsprediction_loss_only
: Trueper_device_train_batch_size
: 64per_device_eval_batch_size
: 16per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 2e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 3max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Truefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falsebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: proportional
Training Logs
Epoch | Step | Training Loss | Validation Loss | ha-test_max_accuracy |
---|---|---|---|---|
0 | 0 | - | - | 0.6874 |
0.6234 | 1000 | 2.63 | 1.9310 | 0.8470 |
1.2469 | 2000 | 1.8681 | 1.8004 | 0.8535 |
1.8703 | 3000 | 1.5687 | 1.7071 | 0.8607 |
2.4938 | 4000 | 1.3045 | 1.6955 | 0.8586 |
3.0 | 4812 | - | - | 0.8623 |
Framework Versions
- Python: 3.12.2
- Sentence Transformers: 3.2.1
- Transformers: 4.45.2
- PyTorch: 2.4.1+cu121
- Accelerate: 1.0.1
- Datasets: 3.0.1
- Tokenizers: 0.20.1
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
TripletLoss
@misc{hermans2017defense,
title={In Defense of the Triplet Loss for Person Re-Identification},
author={Alexander Hermans and Lucas Beyer and Bastian Leibe},
year={2017},
eprint={1703.07737},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
- Downloads last month
- 13
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for mrinaldi/gattina-ha-classifier-cossim
Evaluation results
- Cosine Accuracy on ha testself-reported0.854
- Dot Accuracy on ha testself-reported0.135
- Manhattan Accuracy on ha testself-reported0.859
- Euclidean Accuracy on ha testself-reported0.858
- Max Accuracy on ha testself-reported0.859
- Cosine Accuracy on ha testself-reported0.857
- Dot Accuracy on ha testself-reported0.132
- Manhattan Accuracy on ha testself-reported0.862
- Euclidean Accuracy on ha testself-reported0.862
- Max Accuracy on ha testself-reported0.862