Actions
FOTW_1234 png
(118.9 KB, 820x554)
(118.9 KB, 820x554)
Screenshot 2022-12-16... png
(1.03 MB, 2472x1892)
(1.03 MB, 2472x1892)
>>/1507/ Я пощу скриншоты архитектур, сырую выдачу моделей, и иногда замечания технически подкованных людей или людей, имеющих влияние на политический климат вокруг индустрии. > Разве оно не смешивает известные детали? Нет. Оно их рекомбинирует, и учитывает контекст, в котором эти детали встречаются, чтобы достаточно часто поддерживать диалог, выдавать рабочий код, и решать задачи, которые ни разу не встречались в исходном датасете. Если говорить про диффузионные модели, то они выучивают модальные, а не усреднённые представления объектов, соответствующих ключевым словам, и комбинирует их. Это важно. > Ещё марковские боты умели "ответить что-то в тему". Марковские боты тоже не смешивают. У людей есть какая-то иррациональная и в сущности эстетическая предвзятость против статистических методов. Между тем работа наших нейронов тоже статистическая – и этого хватает для мышления. Это не аргументы. > Ну и вообще ты ведь знаешь сколько всякого добра ежедневно публикуется в научных журнальчиках? Прорыв в аккумуляторах сколько обещали? Так это кальсоний требует публикаций в рецензируемых научных журнальчиках, и хуцпит, что arxiv помойка (а теперь, когда статейки с arxiv, против которых он якобы готов был поставить деньги, проходят в Science – пытается это переиграть в очередную перемогу). ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо. В этом и странность, что вам дают возможности для формирования собственного мнения, но вот уже рега в дискорде – непреодолимое препятствие. Напоминает эпизоды психоневрологии с игнорированиями из Оливера Сакса. С аккумуляторами было много прорывов, плотность за 15 лет выросла почти на порядок, цена киловатт-часа снизилась так же, число циклов увеличилось. Скорее всего Тесла доведёт до продакшена батарею с 10к циклов. И это всё обычные инженерные танцы вокруг литий-ионных ячеек, а не хайповые нанойоба-смены парадигмы. Аналогия с трансформерами очевидна. https://www.energy.gov/eere/vehicles/articles/fotw-1234-april-18-2022-volumetric-energy-density-lithium-ion-batteries https://www.statista.com/statistics/883118/global-lithium-ion-battery-pack-costs/ > Что они писали про блокчейн и потеплизм? Не знаю. Они известны кодом, а не словоблудием. И то, что они запрыгнули в разработку нейросетей, особо забавно, учитывая местные дилетантские разговоры про "неэффективный питон" (как будто не ясно, что питон – лучший язык для *прототипирования*). > От софта ждут подерживаемую жизнь проекта, адаптацию, помощь, волшебную красивую кнопку опять же Окей. Представь, что нейросеть пишет тебе по запросу не сниппет кода, а большой проект на 500к строк. И он компилируется и работает. Что дальше? Вот ты великодушно, по-барски сказал "окей, вау". Теперь можешь задуматься о том, какие работы остаются людям? Интеллект – это в том числе способность просчитывать последствия. Этим условием ты оставляешь себе ровно одно вау перед тем, как встать к стенке. > Some neural networks is named like UL2-20B. What the "20B" part mean? Are named, what does mean. Но ладно. Я спросил ChatGPT, она осмысленно написала мне ряд гипотез, начав c верной. Попроси у знакомого хохла логин, если хочешь скрины. Для меня это достаточно вау. Особенно учитывая, что в её тренинге не было ничего про UL2-20B.