Mistral — семейство больших языковых моделей, разработанных компанией Mistral AI. Среди доступных нейросетей вы найдёте модели на базе архитектуры Mixture of Experts, а также флагманскую Mistral Large, которую вы можете использовать бесплатно прямо в браузере. Для некоторых моделей присутствует возможность развёртывания в облачных сервисах и локально.
Особенности Mistral:
- Чат-бот. Mistral AI предлагает целую серию качественных языковых моделей, получивших признание от огромного сообщества. Приятной особенностью является возможность использования чат-бота на основе флагманской Mistral Large прямо из браузера. Модели Mistral 7b, Mixtral 8x7b и Mixtral 8x22b являются опенсорсными, поэтому вы можете развернуть их локально и использовать бесплатно. Инструкцию по деплою LLM с помощью облачных провайдеров или на своём устройстве вы найдёте в документации.
- Mixture of Experts. Mixture of Experts (MoE) - это архитектура, лежащая в основе Mixtral 8x7b и Mixtral 8x22b. При данном подходе у LLM есть несколько разных сетей, каждая из которых хорошо умеет решать свою узкую задачу, и когда в модель приходит запрос, то на него отвечают только "подходящие" эксперты. Такая архитектура позволяет существенно повысить качество ответов модели.
- API. Mistral AI предоставляет возможность использовать API для всех своих моделей. К вашим услугам такие передовые LLM, как Mistral Large и Mixtral 8x22B, имеющие контекстные окна 32к и 64к токенов соответственно. Также присутствует модель для генерации эмбеддингов размерностью 1024. Нейросети поддерживают вывод в формате JSON, вызов сторонних функций и возможность модерации контента. С полным списком моделей и руководством по их использования вы можете ознакомиться в документации.
Использовать чат-бот на основе нейросети можно бесплатно на сайте сервиса. За использование API предусмотрена плата.