Tanuki-8B-dpo-v1.0-GPTQ-8bit

概要

GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMであるweblab-GENIAC/Tanuki-8B-dpo-v1.0のGPTQ 8bit量子化モデルです。
キャリブレーションセットにはizumi-lab/wikipedia-ja-20230720からランダムサンプリングした1000件を利用しています。

モデルに関する詳細については元モデルをご確認ください。

Downloads last month
274
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-8bit

Quantized
(5)
this model

Dataset used to train team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-8bit