fe.settings:getUserBoardSettings - non array given[dobrochan] - Endchan Magrathea
thumbnail of FOTW_1234.png
thumbnail of FOTW_1234.png
FOTW_1234 png
(118.9 KB, 820x554)
thumbnail of Screenshot 2022-12-16 at 20.22.57.png
thumbnail of Screenshot 2022-12-16 at 20.22.57.png
Screenshot 2022-12-16... png
(1.03 MB, 2472x1892)
 >>/1507/
Я пощу скриншоты архитектур, сырую выдачу моделей, и иногда замечания технически подкованных людей или людей, имеющих влияние на политический климат вокруг индустрии.

>  Разве оно не смешивает известные детали?
Нет.  Оно их рекомбинирует, и учитывает контекст, в котором эти детали встречаются, чтобы достаточно часто поддерживать диалог, выдавать рабочий код, и решать задачи, которые ни разу не встречались в исходном датасете. Если говорить про диффузионные модели, то они выучивают модальные, а не усреднённые представления объектов, соответствующих ключевым словам, и комбинирует их. Это важно.
>  Ещё марковские боты умели "ответить что-то в тему".
Марковские боты тоже не смешивают.
У людей есть какая-то иррациональная и в сущности эстетическая предвзятость против статистических методов. Между тем работа наших нейронов тоже статистическая – и этого хватает для мышления. Это не аргументы.

>  Ну и вообще ты ведь знаешь сколько всякого добра ежедневно публикуется в научных журнальчиках? Прорыв в аккумуляторах сколько обещали?
Так это кальсоний требует публикаций в рецензируемых научных журнальчиках, и хуцпит, что arxiv помойка (а теперь, когда статейки с arxiv, против которых он якобы готов был поставить деньги, проходят в Science – пытается это переиграть в очередную перемогу).

ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо. В этом и странность, что вам дают возможности для формирования собственного мнения, но вот уже рега в дискорде – непреодолимое препятствие.
Напоминает эпизоды психоневрологии с игнорированиями из Оливера Сакса.

С аккумуляторами было много прорывов, плотность за 15 лет выросла почти на порядок, цена киловатт-часа снизилась так же, число циклов увеличилось. Скорее всего Тесла доведёт до продакшена батарею с 10к циклов. И это всё обычные инженерные танцы вокруг литий-ионных ячеек, а не хайповые нанойоба-смены парадигмы. Аналогия с трансформерами очевидна.
https://www.energy.gov/eere/vehicles/articles/fotw-1234-april-18-2022-volumetric-energy-density-lithium-ion-batteries
https://www.statista.com/statistics/883118/global-lithium-ion-battery-pack-costs/

>  Что они писали про блокчейн и потеплизм?
Не знаю. Они известны кодом, а не словоблудием. И то, что они запрыгнули в разработку нейросетей, особо забавно, учитывая местные дилетантские разговоры про "неэффективный питон" (как будто не ясно, что питон – лучший язык для *прототипирования*). 

>  От софта ждут подерживаемую жизнь проекта, адаптацию, помощь, волшебную красивую кнопку опять же

Окей. Представь, что нейросеть пишет тебе по запросу не сниппет кода, а большой проект на 500к строк. И он компилируется и работает.
Что дальше? Вот ты великодушно, по-барски сказал "окей, вау".
Теперь можешь задуматься о том, какие работы остаются людям?
Интеллект – это в том числе способность просчитывать последствия. Этим условием ты оставляешь себе ровно одно вау перед тем, как встать к стенке. 

>  Some neural networks is named like UL2-20B. What the "20B" part mean?

Are named, what does mean. Но ладно. Я спросил ChatGPT, она  осмысленно написала мне ряд гипотез, начав c верной. Попроси у знакомого хохла логин, если хочешь скрины. 

Для меня это достаточно вау. Особенно учитывая, что в её тренинге не было ничего про UL2-20B.