ГЛАВНАЯ    | 
     Россия          Кавказ          Бывший СССР          Мир          Ближний Восток          Политика          Экономика          Недвижимость     
     Масс-медиа          Культура          Спорт          Прогресс          Интернет и СМИ          Оружие          Авто          Из жизни     

     Преступность          Катастрофы          Кино          Музыка          Игры          Бизнес          Наука и техника          Финансы     


Сбер обучил GPT-3 на 600 гигабайтах русских текстов

Разработчики из Сбера представили русскоязычную версию алгоритма для генерирования текста GPT-3, представленную в мае этого года. Чтобы обучить систему, команда собрала корпус из 600 гигабайтов русскоязычных текстов, включая корпус русской литературы, новостные сайты и публичные разделы Pikabu.

источник







Copyright © 2005-2020.