--- base_model: - happzy2633/qwen2.5-7b-ins-v3 - AIDC-AI/Marco-o1 library_name: transformers tags: - mergekit - merge --- # merge This is a merge of pre-trained language models created using [mergekit](https://github.com/cg123/mergekit). ## Merge Details ### Merge Method This model was merged using the [task arithmetic](https://arxiv.org/abs/2212.04089) merge method using [happzy2633/qwen2.5-7b-ins-v3](https://huggingface.co/happzy2633/qwen2.5-7b-ins-v3) as a base. ### Models Merged The following models were included in the merge: * [AIDC-AI/Marco-o1](https://huggingface.co/AIDC-AI/Marco-o1) ### Configuration The following YAML configuration was used to produce this model: ```yaml models: - model: AIDC-AI/Marco-o1 parameters: density: [1, 0.8, 0.2] # Aumentato leggermente il gradiente per dare maggiore peso al contributo iniziale weight: 0.9 # Ridotto il peso per bilanciare meglio l'influenza - model: happzy2633/qwen2.5-7b-ins-v3 parameters: density: 0.6 # Aumentato per consentire una maggiore fusione delle rappresentazioni weight: [0.1, 0.4, 0.8, 1] # Raffinato il gradiente per enfatizzare progressivamente il contributo - model: AIDC-AI/Marco-o1 parameters: density: 0.4 # Leggermente aumentato per integrare una maggiore ricchezza di rappresentazioni weight: - filter: mlp value: 0.6 # Incrementato il valore per dare maggiore peso a questa componente - value: 0.1 # Aggiunto un piccolo peso finale per evitare contributi nulli merge_method: task_arithmetic # Manteniamo il metodo "ties" per una fusione bilanciata base_model: happzy2633/qwen2.5-7b-ins-v3 # Base model per guidare la fusione parameters: normalize: true # Conserva la normalizzazione per evitare squilibri nelle rappresentazioni int8_mask: true # Rimane abilitato per ottimizzare le prestazioni adaptive_merge: true # Aggiunto per una fusione piĆ¹ dinamica in base al contesto dtype: float16 # Manteniamo float16 per limitare l'uso di memoria e migliorare l'efficienza ```