--- license: apache-2.0 --- ### Korean Otter [Otter](https://huggingface.co/luodian/OTTER-9B-LA-InContext) 모델을 [KoLLaVA-Instruct-150K](https://huggingface.co/datasets/tabtoyou/KoLLaVA-Instruct-150k) 중 Complex resoning에 해당하는 77k 데이터셋으로 학습했습니다. Otter 이미지 [데모](https://github.com/Luodian/Otter)에서 한국어 질문을 어느정도 이해해 영어로 답변하는 것을 확인하고, 해당 모델을 그대로 가져와 한국어 데이터셋으로 학습이 되는지 테스트한 모델입니다. GPU memory 한계로 Otter의 LLM 부분에서 특정 레이어 이상(>25)만 1epoch 학습했습니다. 이 모델은 답변의 품질이 좋지 않지만, 더 많은 데이터셋으로 epoch을 늘려 학습한다면 더 좋은 결과를 얻을 수 있을 것으로 보입니다. inference는 [Otter](https://huggingface.co/luodian/OTTER-9B-LA-InContext)의 코드를 참고해 진행할 수 있습니다.