## Описание модели Этот чатбот - дипломная работа студента Андрея Ворожко в УИИ (Университет Искусственного Интеллекта). Окончание обучения - март 2022 года. Чатбот сделан на основе модели [Kirili4ik/ruDialoGpt3-medium-finetuned-telegram](https://huggingface.co/Kirili4ik/ruDialoGpt3-medium-finetuned-telegram) Теперь модель дообучена на основе 27000 анекдотов (14 эпох, скорость обучения в колабе 2-6 часов на эпоху) и умеет понимать контекст разговора. Однако контекст приходится ограничивать несколькими последними сообщениями потому что чем больше контекста тем медленнее модель работает, а контекст растет как снежный ком в процессе разговора. Инференс находится в [spaces](https://huggingface.co/spaces/avorozhko/funbot): Там с ботом можно поговорить. Контекст ограничен 10 последними сообщениями. Шутки бот выдает, но пока скорее случайно, чем намеренно. Однако разговор поддержать способен и даже немного развлечь. Так как это генерация текста, то на одну и ту же фразу бот всегда будет выдавать разные ответы. Также для определения качества данной модели использовалась кастомная метрика - угловое расстояния между эмбеддингами y_train и предикта. То есть мы взяли первый слой эмбеддинга модели и прогоняли предикты и лейблы, получили вектора слов. Потом вектора слов суммировали и получили общие (суммарные) вектора лейблов и предиктов. Чем меньше угол между ними, тем лучше. При рассчетах ориентировались на косинус этого угла, так как cos 0 = 1, то это очень удобно - чем ближе показатель к 1, тем лучше. Вот такое распределение этих значений получилось по эпохам на ПРОВЕРОЧНОЙ выборке (1406 анекдотов): ``` {1: tensor(0.9357, device='cuda:0', grad_fn=), 2: tensor(0.9390, device='cuda:0', grad_fn=), 3: tensor(0.9417, device='cuda:0', grad_fn=), 4: tensor(0.9439, device='cuda:0', grad_fn=), 5: tensor(0.9470, device='cuda:0', grad_fn=), 6: tensor(0.9537, device='cuda:0', grad_fn=), 7: tensor(0.9568, device='cuda:0', grad_fn=), 8: tensor(0.9592, device='cuda:0', grad_fn=), 9: tensor(0.9610, device='cuda:0', grad_fn=), 10: tensor(0.9622, device='cuda:0', grad_fn=), 11: tensor(0.9628, device='cuda:0', grad_fn=), 12: tensor(0.9632, device='cuda:0', grad_fn=), 13: tensor(0.9630, device='cuda:0', grad_fn=), 14: tensor(0.9634, device='cuda:0', grad_fn=), 15: tensor(0.9634, device='cuda:0', grad_fn=)} ``` Для инференса выбрана 14-я эпоха с точностью 0.9634. Далее, судя по всему идет уже переобучение.