fe.settings:getUserBoardSettings - non array given[dobrochan] - Endchan Magrathea
 >>/2646/
Спасибо, но я с МЛ на базовом уровне знаком, сейчас именно на NLP подробнее смотрю.

Алсо, такой реквест. Какие есть предобученные генеративные модели для русского языка, чтобы их файнтюнить для определённых текстов? В GPT-2 1.5 миллиарда параметров, это жирновато чтобы дообучать в Колабе или на нищеноуте, хотелось бы что-нибудь простенькое. А BERT не генерит текст, а угадывает маскированные токены, это другое.