>>/2055/ > Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны? > Методичка, копипаст, есть несколько моделей, *dirty panties dance intensifies* Что ж, батенька, пора вам менять очередные кальсончики. > Машинное обучение более воспроизводимо и открыто, чем академическая наука. Ну как тут не поверить пачкающему собственные штаны шизофренику с манией еврейского заговора и нейросетевой обсцессией? > А статья-то вышла И как это относится к тому, больной, что вы гордо распушили свои кальсоны с предложением пари, а потом наложили в них кучу и попытались сбежать под надуманными предлогами? > То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу. Как и сломанные часы, которые могут с некоторой вероятностью показать верное время. А вот есть ли у вас, уважаемый, численные оценки этой вероятности в общем случае? Или все вновь закончится тверком грязного филея под истошные вопли о грядущем пришествии нейробоженьки? > Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса Да вы, батенька, никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать? > К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х. На системе за 600к рублей. Пора. Пора! Скоро, уважаемый, вы будете начальником подотдела масштабирования!