>>/2055/
> Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
> Методичка, копипаст, есть несколько моделей, *dirty panties dance intensifies*
Что ж, батенька, пора вам менять очередные кальсончики.
> Машинное обучение более воспроизводимо и открыто, чем академическая наука.
Ну как тут не поверить пачкающему собственные штаны шизофренику с манией еврейского заговора и нейросетевой обсцессией?
> А статья-то вышла
И как это относится к тому, больной, что вы гордо распушили свои кальсоны с предложением пари, а потом наложили в них кучу и попытались сбежать под надуманными предлогами?
> То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу. 
Как и сломанные часы, которые могут с некоторой вероятностью показать верное время. А вот есть ли у вас, уважаемый, численные оценки этой вероятности в общем случае? Или все вновь закончится тверком грязного филея под истошные вопли о грядущем пришествии нейробоженьки?
> Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса
Да вы, батенька, никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать?
> К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х.
На системе за 600к рублей.
Пора. Пора! Скоро, уважаемый, вы будете начальником подотдела масштабирования!