YaLM 100В содержит 100 млрд параметров — больше, чем какая-либо из существующих моделей для русского языка. Это позволяет использовать её для решения большого круга задач, связанных с обработкой естественного языка. Языковые модели из семейства YaLM определяют принцип построения текста и генерируют новые, опираясь на законы лингвистики и свои знания о мире. Например, они способны придумывать идеи для рекламных кампаний, создавать описания товаров и видео. С их помощью можно генерировать любые тексты (стихи, ответы, поздравления и так далее), а также классифицировать их, например, по стилю речи.
Команда Яндекса использует нейросети YaLM более чем в 20 проектах, в том числе в Поиске и голосовом помощнике Алисе. Языковые модели помогают сотрудникам службы поддержки отвечать на обращения, генерируют рекламные объявления и описания сайтов (сниппеты). Нейросети YaLM широко используются также при подготовке быстрых ответов в Поиске.
«Для обучения такой большой языковой модели требуются огромные ресурсы, опытные специалисты и годы работы. А нам важно, чтобы доступ к современным технологиям был не только у крупнейших IT-компаний, а у всего сообщества исследователей и разработчиков. Выкладывая YaLM 100B в открытый доступ, мы рассчитываем, что это даст толчок развитию генеративных нейросетей», — рассказал Петр Попов, генеральный директор Яндекс Технологий.
Модель обучали на суперкомпьютерах Яндекса, которые были признаны самыми мощными в Восточной Европе. В процессе обучения YaLM 100B обработала около 2 ТБ текстов из открытых датасетов и интернета на английском и русском языках. Модель предоставляется по открытой лицензии Apache 2.0 и доступна на GitHub.