これは、AratakoさんのLightChatAssistant-4x7Bモデルをexl2量子化したものです。
Q4 cacheモードによる、32kのContextSize対応、4.0bpw量子化でVRAM16GBでフルロード可能です。
Model tree for RioShiina/LightChatAssistant-4x7B-exl2
Base model
Elizezen/Antler-7Bこれは、AratakoさんのLightChatAssistant-4x7Bモデルをexl2量子化したものです。
Q4 cacheモードによる、32kのContextSize対応、4.0bpw量子化でVRAM16GBでフルロード可能です。
Base model
Elizezen/Antler-7B