thumbnail of Screenshot 2023-01-09 at 09.13.59.png
thumbnail of Screenshot 2023-01-09 at 09.13.59.png
Screenshot 2023-01-09... png
(1.79 MB, 2292x626)
Новый год – новые нейросети и старые пятна на кальсонах отрицателей.

Мне известно уже о полудюжине опенсорсных проектов репликации ChatGPT, также аналогах от Google, you.com (команда из Salesforce) и Anthropic, которые сравнимы по качеству. 
Антропик даже получше: https://twitter.com/andy_l_jones/status/1611063295850729472

В ближайшее время выходит опенсорсная модель для генерации картинок IF от DeepFloyd (профинансированных Stability), которая будет очень хороша в тексте и, вероятно, других мелких деталях. (Неожиданный факт, за ней стоит украинская команда).

С ней, вероятно, можно будет сравнить недавнюю гугловскую Muse https://arxiv.org/abs/2301.00704, которая продолжает тренд замены других типов нейросетей трансформерами (в данном случае выкинули U-Net). http://muse-model.github.io Чем Muse интересна? В первую очередь пониманием композиционной семантики  и кардинальности объектов. Почему это интересно? Потому что свет наш Гэри Маркус, выступающий на всех цирковых площадках от шоу Эзры Кляйна до The Economist, главный критик нейросетей без эксплицитных вшитых в архитектуру нейросимволических методов (т.е всего современного мейнстрима глубокого обучения), говорил не далее как в апреле 2022-го: https://twitter.com/garymarcus/status/1512647983317151747
>  Композиционность *это и есть* стена [в которую упирается машинное обучение]. 
"В математической логике и смежных дисциплинах принцип композиционности - это принцип, согласно которому значение сложного выражения определяется значениями составляющих его выражений и правилами, используемыми для их объединения. ... Принцип композиционности утверждает, что если из осмысленного предложения убрать лексические части , то останутся только правила композиции. Возьмем, к примеру, фразу «Сократ был человеком». После удаления значимых лексических элементов - «Сократ» и «человек» - остается псевдо-предложение «S было M». Задача сводится к описанию связи между S и M."

Соответственно нейросети, которые ПРОСТО комбинируют или интерполируют между элементами датасета (хуй его знает, что такое ПРОСТО в понимании критиков, но допустим) – никогда не смогут с высокой вероятностью правильно интерпретировать промпты, описывающие что-то сложнее набора объектов, расположенных в сцене случайным или статистически вероятным (для обучающего датасета) образом. 

Ну как поупирались в стену? 
Слева направо: Dall-e 2, Imagen, Muse. Понимание промпта очевидно растёт, а ресурсоёмкость моделей всё падает. Помимо своих других достоинств, Muse примерно на порядок быстрее предыдущего поколения моделей от Google (1.3 секунды на картинку на чипе класса A100). Обучение тоже вряд ли стоило больше, чем Stable Diffusion, не говоря уж о Dall-E.

Мне очень интересно, как Маркус будет выкручиваться в этот раз. Как кальсон, доёбываться до ошибок композициональности ("ахаха, у книжки обложки разного цвета!") и игнорировать, что их вероятность снизилась с почти 100% до 20-40% менее чем за год?
Или придумает новую стену, которую ИИ уж точно не пробьёт? 

Как я и говорил, вслед за картинками ждёт синтез видеоряда со звуком: 
https://twitter.com/zaesarius/status/1611708539931660289

 >>/2117/
Как водится, кольсон решил подоёбываться до слов. Но увы:
>  Поэтому вам стоило бы перестать утверждать что-то конкретное про "бОльшую открытость и честность ML" или "непревзойденную широту знаний Тао и обращающимися к нему за советом людьми (стоящими, не иначе, в очереди) с премиями Филдса"
>  некая вскользь высказанная похвала одного из многих лауреатов премии Филдса превращается во множество лауреатов
Тем временем что я сказал в действительности: 
>  > человек, к которому обращаются за советами другие люди уровня премии Филдса, потому что он имеет непревзойдённую широту знаний в этом поколении
Позволю себе принять на веру оценку Гауэрса, а не кальсона, хотя последний безусловно более сильный математик.
То, что я говорю конкретно, является правдой, а уж зачем ты так устремился в залупу насчёт Тао, что тебе приходится играть с этими форм – не моя беда.