/dobrochan/ - Доброчан

Бункер доброчана для того, чтобы можно было пережидать всякие перетряски.


New Reply on thread #603
X
Max 20 files0 B total
[New Reply]

[Index] [Catalog] [Banners] [Logs]
Posting mode: Reply [Return]


thumbnail of science.jpeg
thumbnail of science.jpeg
science jpeg
(544.28 KB, 1895x1410)
thumbnail of hcnjf56z1w1a1.jpg.webp
thumbnail of hcnjf56z1w1a1.jpg.webp
hcnjf56z1w1a1.jpg webp
(125.47 KB, 960x810)
Тут будут (но это не точно) продолжать выходить обзоры начала логистической кривой, следующий участок которой в научно-популярном сознании помечен как "сингулярность". Buckle up, things are about to get wild. 

(Если у кого есть вопросы из прошлого треда – буду благодарен). 

Одна новость, после которой вы, наверное, можете скрывать тред, ничего не потеряв, если она не покажется вам значимой: ИИ сейчас играет на сильном человеческом уровне в блиц Diplomacy, игре, ядро которой – переговоры на естественном языке с целью создания альянсов и эксплуатации других игроков-людей. И в отличие от Го в 2016-м, это уже *никому не интересно.* https://www.science.org/doi/10.1126/science.ade9097

Напоминания про источники: 

https://twitter.com/_akhaliq (лучший, но скоро перестанет публиковать)
https://twitter.com/arankomatsuzaki (лучший по S/N)
https://jack-clark.net  (поясняет)
https://twitter.com/ai__pub (подборки в духе akhaliq)
https://bensbites.beehiiv.com (вариант для любителей сои)
 >>/603/
Интересных текстовых генераций не завезли ещё? Помню, был AI Dungeon, но он путался в сюжете, NovelAI без регистрации не особо-то и работает. Что там ещё есть? Генерированный текст кто-нибудь скармливал рисовалкам?

 >>/606/
>  AI Dungeon

Мне не особо понравилось. Оно складно накладывало дальше, но совершенно не понимало контекста того, куда накладывает сверху. Получалось, что родился я на улице герцена после нескольких постов.

 >>/607/
Вот и мне не понравилось. Ещё он забывал о чем говорил буквально парой постов назад. То одни и те же персонажи в разных амплуа, то мир резко менялся. Хотелось от него заготовок для сюжетов, а получилось только трата времени. Книжки лучше всё-таки.

thumbnail of ukmahdn82v1a1.png.webp
thumbnail of ukmahdn82v1a1.png.webp
ukmahdn82v1a1.png webp
(384.37 KB, 640x640)
thumbnail of FiTbngkWAAEBFwV.jpeg
thumbnail of FiTbngkWAAEBFwV.jpeg
FiTbngkWAAEBFwV jpeg
(312.44 KB, 1752x1212)
 >>/606/
Есть http://beta.character.ai 
Он уже не такой интересный, как в начале, потому что модели кастрировали для уничтожения возможности генерации lewd- контента (получилось почти, но не совсем) и сильно оглупили, принудив говорить СЖВ-бред (буквально, модель Гитлера тебе эксплицитно расскажет, что она не исторический Гитлер, а исправленный, который за равенство и братство всех народов). Кроме того, модели очевидно тюнили на RLHF, это интересная и очень мощная техника увеличения согласованности с человеческими предпочтениями, но у неё есть проблема в генерации опенэндного текста – mode collapse. То есть персонажа неудержимо влечёт к мощнейшему аттрактору в поле дискуссии, в данном случае к тупой любви и обнимашкам (но без lewd). У OpenAI с InstructGPT по тем же причинам получается биззарное обсуждение свадеб. 

Но при всём этом, чарактер.ай очень и очень сильный в сравнении c AI Dungeon. Аноны уже там создали массу персонажей, можешь попробовать. 

>  Генерированный текст кто-нибудь скармливал рисовалкам?
Чем это отличается от нормального текста с их точки зрения?

 >>/619/
Спасибо. Чуть потыкал - лучше, чем AI Dungeon и правда, хотя та же проблема с потерей сюжета встречается. Или мне не повезло, тоже может быть.

>  Чем это отличается от нормального текста с их точки зрения?
Видимо ничем. Идея интерактивных историй с картинками. Осложняется тем, что из этой истории надо выдернуть идею и сформировать из неё запрос.





Computer Generates Human Faces / https://youtube.com/watch?v=4VAkrUNLKSo
Generating Songs With Neural Networks (Neural Composer) / https://youtube.com/watch?v=UWxfnNXlVy8
Music visualized in 3D with machine learning / https://youtube.com/watch?v=CeMtEuT_8R0
A.I. Experiments: Visualizing High-Dimensional Space / https://youtube.com/watch?v=wvsE8jm1GzE
The Neural Network, A Visual Introduction | Visualizing Deep Learning, Chapter 1 / https://youtube.com/watch?v=UOvPeC8WOt8
Neural Network 3D Simulation / https://youtube.com/watch?v=3JQ3hYko51Y
OpenAI Plays Hide and Seek…and Breaks The Game! 🤖 / https://youtube.com/watch?v=Lu56xVlZ40M
Evolving AIs - Predator vs Prey, who will win? / https://youtube.com/watch?v=qwrp3lB-jkQ
AI Learns to Escape (using Reinforcement Learning) / https://youtube.com/watch?v=v3UBlEJDXR0
How to Win Snake: The UNKILLABLE Snake AI / https://youtube.com/watch?v=TOpBcfbAgPg
Neural Network Learns to Play Snake / https://youtube.com/watch?v=zIkBYwdkuTk
[DeepLearning | видео 1] Что же такое нейронная сеть? / https://youtube.com/watch?v=RJCIYBAAiEI
MarI/O - Machine Learning for Video Games / https://youtube.com/watch?v=qv6UVOQ0F44
I programmed some creatures. They Evolved. / https://youtube.com/watch?v=N3tRFayqVtk
Computer evolves to generate baroque music! / https://youtube.com/watch?v=SacogDL_4JU
Computer tries to replicate my voice! / https://youtube.com/watch?v=jSsMqjMcRAg
But what is a convolution? / https://youtube.com/watch?v=KuXjwB4LzSA
A.I art is horrifying... / https://youtube.com/watch?v=QnY8xHzPl9g
The Current State of Anime Generating AI / https://youtube.com/watch?v=DX1lUelmyUo
Giving Personality to Procedural Animations using Math / https://youtube.com/watch?v=KPoeNZZ6H4s
Text Generated Videos Are So Goofy Yet Mind-blowing / https://youtube.com/watch?v=ILXlcfHq3WM

thumbnail of Fi3IoenWQAEhPtP.png
thumbnail of Fi3IoenWQAEhPtP.png
Fi3IoenWQAEhPtP png
(86.03 KB, 794x961)
thumbnail of Fi4fQwmX0AAc9Qd.png
thumbnail of Fi4fQwmX0AAc9Qd.png
Fi4fQwmX0A... png
(139.01 KB, 800x2000)
thumbnail of Fi2yZq1XEAEs9cp.jpeg
thumbnail of Fi2yZq1XEAEs9cp.jpeg
Fi2yZq1XEAE... jpeg
(194.43 KB, 1174x1708)
thumbnail of Fi1QBXpXEBg5LO1.jpeg
thumbnail of Fi1QBXpXEBg5LO1.jpeg
Fi1QBXpXEBg5LO1 jpeg
(200.01 KB, 1638x2036)
GPT 3.5 превосходит многих людей. Это те же 175 миллиардов параметров. Инференс стал быстрее в несколько раз. 

GPT-4 будет мощнее.

metaphor.systems ищет информацию намного лучше гугла.

Я не знаю, о чём тут ещё можно писать. Пара API-хуков и скрипт на три сотни строк – и оно написало бы всё, что я хочу, и всё, что на это можно возразить, и всё, что я бы ответил, лучше меня и вас. 

Кажется, до AGI осталось несколько месяцев.

 >>/858/
Есть какие-то достижения, сделанные нейросетями? Например, какая-нибудь вундервафля, изготовленная по проектам, какое-нибудь развитие в науках, в медицине или ещё где-то? Просто пока это всё выглядит как маркетинговое привлечение внимания - да интересно, но без практического приложения. Ну кроме распознавания лиц/номеров автомобилей/букв текста - это повсеместно и неинтересно.

thumbnail of 2022-12-01 15.42.38.jpg
thumbnail of 2022-12-01 15.42.38.jpg
2022-12-01 15.42.38 jpg
(137.95 KB, 1181x1280)
thumbnail of 2022-12-01 15.45.01.jpg
thumbnail of 2022-12-01 15.45.01.jpg
2022-12-01 15.45.01 jpg
(121.43 KB, 1210x1280)
 >>/860/
Ты определяешь "достижение" как пиковый результат индивидуального интеллектуального творчества в течение долгой карьеры. Причём такой, который можно представить на научпоп-сайте или в журнале типа Техника Молодёжи. "Йозефсон разработал интерферометр". Гугловская сетка оптимизировала дизайн тензорного ускорителя (для тренинга нейросетей же), другие – оптимизировали оптимизаторы и матричное умножение. Такого много. Если бы этим занималось мясо, то там было бы много человеколет работы и дюжина патентов. Но ты бы в любом случае не услышал об этом как о достижении. 

>  Просто пока это всё выглядит как маркетинговое привлечение внимания - да интересно, но без практического приложения

Если тебе не понятно, почему пикрелейтед имеет практическое приложение и не является просто маркетингом, то мне интереснее говорить с машиной, чем с тобой, она банально умнее. 

Без обид.

 >>/861/
> Ты определяешь "достижение" как пиковый результат индивидуального интеллектуального творчества в течение долгой карьеры. 
Как имеющее практическое применение или влияющее на другие области. Плоды математики, которая наука в себе, используются, например, в физике. Сопромат используется в инженерии. Химия в биологии.
Нейросети используются в... нейросетях?
> пикрелейтед имеет практическое приложение 
Как демонстрация возможностей сетей по генерации текста на основе сигнатур.
> то мне интереснее говорить с машиной, чем с тобой, она банально умнее.
Вот по этому-то к тебе такое отношение на Доброчане.

 >>/862/
> Вот по этому-то к тебе такое отношение на Доброчане.
> И поэтому приходиться протекать в других тредах, а потом обижаться, когда там стебут или показывают на дверь.

thumbnail of Fi2DRJoXkAAcVg8.png
thumbnail of Fi2DRJoXkAAcVg8.png
Fi2DRJoXkAAcVg8 png
(76.02 KB, 763x711)
 >>/862/
>  Как имеющее практическое применение или влияющее на другие области
Нейросеть, применяющаяся для разработки полупроводниковых изделий, имеет практическое применение.  Разумеется, то же можно сказать про все остальные применения нейросетей от перевода и распознавания речи до генерации аминокислотных последовательностей в биомедицинских задачах. Упираться уже можно только из чистого фанатизма. 
>  Как демонстрация возможностей сетей по генерации текста на основе сигнатур.
Каких сигнатур, лейтенант? Эхолокацию приглуши. 

Ты английским-то владеешь? Ты можешь прочитать то, что на картинках, которые я выкладываю, или это для тебя просто строчки из закорючек? 

Ты можешь не съезжать на затхлые обидки, а сформулировать, почему генерация, понимание и объяснение программного кода, материалов экономики, педагогики и любой другой темы на естественном языке на уровне среднего профильного студента по простым запросам – не имеет практического применения? Это буквально содержание большей части нашей экономической деятельности. 

>  Нейросети используются в... нейросетях?
Это ремарка, которую мог бы выдать бот на марковских цепях. Какое мне дело до отношения ботов?

 >>/864/
> Каких сигнатур, лейтенант? Эхолокацию приглуши. 
Простите, забыл смузи прихлебнуть и штаны подвернуть. Паттернов, конечно же.
> Ты английским-то владеешь? Ты можешь прочитать то, что на картинках, которые я выкладываю, или это для тебя просто строчки из закорючек? 
На одной шаблонная ошибка, которую найдет статический анализатор, на второй шаблонный ответ (какой уровень знаний у ученика? Нужен упор на грамматику, на устную речь?)
> почему генерация, понимание и объяснение программного кода, материалов экономики, педагогики и любой другой темы на естественном языке на уровне среднего профильного студента по простым запросам – не имеет практического применения?
Если не расплываться в словах, то это переписывание написанного. Нет чего-то нового, как результата умственного труда.

Но вообще-то я никуда не съезжал, а спросил банальный вопрос:
> Есть какие-то достижения, сделанные нейросетями?
на который ты, кстати, так и не ответил, а начал распыляться, что я ничего не понимаю.

thumbnail of 2022-12-01 17.30.43.jpg
thumbnail of 2022-12-01 17.30.43.jpg
2022-12-01 17.30.43 jpg
(95.11 KB, 1125x1280)
thumbnail of 2022-12-01 17.30.46.jpg
thumbnail of 2022-12-01 17.30.46.jpg
2022-12-01 17.30.46 jpg
(148.09 KB, 1280x1227)
 >>/865/
> Паттернов, конечно же.
Да хоть паттернов, хоть сигнатур, хоть узоров, хоть как назови. Суть того, что ты хочешь сказать, примерно следующая: "ано нипанимает а прост дополняет последовательности на основе предыдущего опыта". Верно? 
>  Если не расплываться в словах, то это переписывание написанного. 
Да, верно. И это "переписывание" – ближайший аналог понимания, как можно заметить, сравнив выдачу гугла с выдачей модели. 

Так вот, переписывание написанного это 99% нашей цифровой экономики. Переписывание сниппетов со stackexchange и гитхаба в проект, переписывание материалов дела в его заключение, переписывание кода в объяснение его функционала студенту и результатов исследования в доклад клиенту и истории болезни в рекомендации и жалоб в психологическую поддержку. Что-то подлинно новое делают интеллектуалы, которых меньше чем 1 на 10 тысяч. В очень ограниченном смысле делают новое, конечно, все люди, когда принимают решения, но это тривиально и не имеет ценности без массива преобразований текста, которые теперь хорошо делает машина.

>   (какой уровень знаний у ученика? Нужен упор на грамматику, на устную речь?)
...ты серьёзно думаешь, что она бы не смогла расписать и эти детали, если бы её попросили о более подробной программе? Ты понимаешь, что это общий интеллект, а не промо-скрипт для простых планов уроков по немецкому? 

>  кокок достижения
Не нести тупую хуйню, не подменять понятия как шизофреник, не путать "машине не за что давать нобелевскую премию" с "это маркетинговый хайп без практического применения" – великое достижение для машины. 

>  на который ты, кстати, так и не ответил
Ответил. 

Слушай, ты в самом деле тупее машины. У неё больше контекст внимания, она лучше держит тему, глубже ей владеет, корректнее себя ведёт. К счастью, машина бесконечно терпелива.

https://chat.openai.com/chat – вот, иди, спорь там. Бесплатно, с регистрацией с СМС. Кстати, может и в русский.


thumbnail of media-Fi4-eOTXgAId6Ll.jpg
thumbnail of media-Fi4-eOTXgAId6Ll.jpg
media-Fi4-eOTXgAId6Ll jpg
(117.6 KB, 1322x1120)
 >>/871/
Нет, люди просто делятся. Правда я бы ожидал, что у OpenAI ничего не пропадает. Они уже заявили намерение фингерпринтить текст на уровне статистического распределения токенов.




thumbnail of 1023.png
thumbnail of 1023.png
1023 png
(393.26 KB, 1023x803)
 >>/862/
> Плоды математики
Пикрилейтед.
> наука в себе
Семиотический скаффолдинг с коммитментом к регулярности, автореференцией, рекурсией и свертками. Это все уже было в естественном языке. Оно потому там и было, что с ним дешевле ездить по рельсам выводов и можно вытеснять накопленную сложность на внешние носители - из поколения в поколения отращивая культурный экзокортекс, но не меняя архитектуры самого мозга. Это не наука в себе. Это наука в тебе и во мне. Она и есть мы.

> Нейросети используются в... нейросетях?
И вот мы смотрим и видим, что спектр применений довольно широк:
https://docs.google.com/spreadsheets/d/1w0dCNh50lMmWJISfQhfU49jGlYdsKIf3QyYGkaO95zA/edit#gid=0

"Нейросеть" это просто слово, ярлычок, приклеенный к смысловому инварианту. Если тебя беспокоит связанный с ним набор коннотаций, называй ее хоть "графом вычислений", хоть "кековой структурой". Есть много способов объяснить ее кековость, например через способность к семантической архивации данных в классы эквивалентности относительно контекста. Снаружи это выглядит, как возможность отображения ("переписывания") одного набора букв и пикселей в другой набор букв и пикселей с сохранением смыслового инварианта - вернее, именно этот недоступный для рефлексии инвариант между различными наборами данных ты и привык называть смыслом в быту. Если кошку повертеть в руках, то ее вес не изменится - вес как структурный инвариант. Если кошка сидит в коробке, а коробка находится в шкафу, то кошка находится в шкафу - универсальный транзитивный фрейм, пролегомены для логики. Если куртка это шкаф, то карман это ящик куртки - аналогия, отношение "часть-целое", неотъемлемый элемент любой онтологии.

Дело ведь не в текстах как таковых. Мы имеем дело с универсальными машинами для вращения слов и кошек - а также статей и биологических видов, литературных жанров и комплексных экосистем. У них там что-то вроде "знания" внутри, с предметными онтологиями и доменно-специфичными механизмами вывода. Причем по объему это все намного превосходит среднее человеческое. На самом деле, конечно, никто полностью не понимает, что именно там внутри происходит - размер слона слишком велик, приходится ощупывать его через простые, когнитивно прозрачные проекции. Но это не избавляет тебя от обязанности понимать хотя бы что-нибудь. Хотя бы на уровне простых аналогий. 

Нейросети вращают кошек. Прямо как мы. Что тут непонятного?

thumbnail of c2dd740f-18ec-4f3f-bbcc-ffb43e645f21.png
thumbnail of c2dd740f-18ec-4f3f-bbcc-ffb43e645f21.png
c2dd740f-18ec-4f... png
(940.09 KB, 1776x2162)
Опенаишный гпт пытается объяснить про драйверы в линукс.

Комментаторы справедливо замечают:
>  Эта стена букв напоминает комментарии интернет-дурачка, который в первом же из них сморозил глупость и с каждым новым пытается любой ценой заболтать этот факт.
>  Это не советы, а какой-то поток банальщины, что-то среднее между ниочемной типовой статьей в инете с первых страниц поисковиков, и многословной бессодержательной речью Горбачева.
>   Ентот ИИ похоже скопипастил слегка переработав какую-то древнюю howto

Это действительно беполезное бормотание: "ага, драйверы есь, просто установи, хотя не факт что будет все нормально работать, а если чо напиши сам или спроси на форумах".
Кто будет будет проверять выдачу нейросеток на ошибки? Не получится ли та самая ситуация: "ИИ сказал в морг, значит в морг"?

Вот человек может *заморочиться* и *реально* выяснить, что там и как с драйверами. Каким образом ты полагаешь GPT - мозг-в-банке - сможет это синтезировать?

Есть ещё такая вещь, что у людей в культуре существует то, что назвывается "умолчания". Существует то, о чём "нельзя говорить". И одновременно существуют некие устоявшиеся способы безопасно (и бесполезно) говорить о многих вещах - догматические системы. Трындежь о политике, к примеру.
Это приводит к тому, что массив публичных текстов - это в общем-то такое себе приближение к реальности. Это и придает некую идиотскость мозгу в банке.
Что ты скажешь об этом?

thumbnail of collapse_compass.jpg
thumbnail of collapse_compass.jpg
collapse_compass jpg
(492.7 KB, 1280x1230)
thumbnail of space_setller_compass.jpg
thumbnail of space_setller_compass.jpg
space_setller_compass jpg
(1.07 MB, 1571x1555)
thumbnail of Screenshot_20221203_202938.png
thumbnail of Screenshot_20221203_202938.png
Screenshot_20221203_2... png
(213.43 KB, 1270x1040)
 >>/933/
Иногда натыкаюсь на твои посты. Отвечать эссе на эссе я не буду, прошу сразу извинить. Видно что ты понимаешь алгоритмическую полноту этих моделей и колоссальную репрезентационную свободу, им доступную - здесь ты не одинок, и те кто рьяно рвутся обучать всё большие мультимодальные машины в своих FAANG-лабах явно видят это схожим https://twitter.com/nandodf/status/1525397036325019649 образом. Ты можешь ещё удивиться количеству людей которые ВСЁ понимают, не только 2, но и 2+2...+2+2.

Собственно к делу, складывая 2+2 перед лицом честной публики. Почему ты, сытый барчук, старательно ОБТЕКАЕШЬ два вопроса:

1. Вопрос того, у кого во владении окажутся те немногие большие модели, которые способны дать трансформативный результат, и смежные подвопросы того, что они изберут запромптить, и что будет с нами, и что мы можем сделать чтобы оставить себе свободу.

2. Вопрос того, почему мы сами не можем сглотнуть scaling pill и, признав себя теми же глубокими кортикальными нейросетями (при этом самодостаточными, энергоэффективными и исполненными на самовоспроизводящемся программируемом клеточно-микромашинном субстрате), запромптить ИИ на дизайн генной терапии, которая позволит нам вырасти над собой до невиданных высот.

То, что ты без особой на то заслуги нароллил в лотерее свой стосороковник *g*, как и условный я, и не видишь нужды поднимать других (вынужденно наролливших меньше стосороковника без особой вины) хоть бы и на свой уровень не делает тебе чести. В известном смысле пустая трата твоего личного стосороковника.

thumbnail of Screenshot 2022-12-03 at 20.36.12.png
thumbnail of Screenshot 2022-12-03 at 20.36.12.png
Screenshot 2022-12-03... png
(545.52 KB, 2502x1450)
thumbnail of FjCSOpTUcAAlff4.jpeg
thumbnail of FjCSOpTUcAAlff4.jpeg
FjCSOpTUcAAlff4 jpeg
(83.58 KB, 843x1005)
 >>/952/
Для начала, эта проблема – неудачное начало ответа заставляет модель продолжать блажить – обходится уже сейчас банальными механизмами вроде best of N, то есть генерацией нескольких линий ответов с разными случайными сидами и сравнению их по качеству (даже банальной perplexity по оценке самой модели). Учитывая скорость генерации ChatGPT, при best of 20 она всё ещё будет в разы быстрее человека. Есть более изощрённые механики из этого класса, например self-consistency https://arxiv.org/abs/2203.11171

Всё это очень похоже на человеческую проблему трейдоффа глубокого и быстрого мышления, система 2 vs. система 1.

Но дело даже не в этом.

>  Каким образом ты полагаешь GPT - мозг-в-банке - сможет это синтезировать?
Ещё по RLHF погоняют (пикрелейтед) и у неё появится интуитивное понимание правильных ответов на кодерские вопросы. Этот "публичный бета-тест" для того и используется. Думаешь, вы такие умные, что тиражируете в сети примеры ошибок? Всё это пойдёт в дело как начало вектора от нежелательных к желательным ответам, и она не просто запомнит частные случаи (ей некуда их запоминать), а обобщит принцип, как уже обобщила очень многое, как может обобщить принцип микроагрессии на воображаемый диалог между макаронами и удоном или стиль речи гангстера на мануал по computer science. В достаточно большой и плотной модели углубление понимания каждого домена приводит к росту понимания всех связанных доменов. 

Тебя не смущает, что ты приводишь аналогию с глупым человеком и материалами, написанными глупыми людьми? Ровно такого сорта контент можно получить от индуса на странице поддержки. Два года назад за подобные аналогии ты бы предложил пить таблетки, ведь было "очевидно", что модель просто перебирает слова, теряя когерентность даже между предложениями. 

Тебя не смущает, что ошибок и откровенного бреда стало намного меньше? Почему ты так привязан к тому, чтобы выискивать failure modes, а не оценивать количественно и качественно разницу между поколениями ИИ и изучать, как эта разница была достигнута? 

А я скажу почему. Потому что вот это – 
>  Вот человек может *заморочиться* и *реально* выяснить
– неправда. Люди ограниченны. Дурачок-индус *не может* просто подумать подольше и найти верное решение без копипастинга из чужой работы, он упирается в свой потолок. Ты тоже не можешь просто напрячься, отвлечься от защиты своего статуса и проанализировать вопрос от первых принципов, вместо того занимаясь *бесполезным бормотанием* про мозг в банке (интересно, какие ещё органы, по-твоему, нужны для понимания линукс-драйверов). 

Ты на том же уровне когнитивной сложности, что и ChatGPT, вы похожим образом фейлите на сложных задачах, вам обоим нельзя доверять. Разница в том, что у тебя меньше эрудиции и ты хуже признаёшь ошибки, но зато у тебя есть гугл. 

У полной версии будет доступ в интернет, собственно он уже есть, просто его отключили. Вот пример того, как это будет работать: https://twitter.com/altryne/status/1598848397855031296 – нейросеть может читать новую документацию и выдавать улучшенные ответы. Она уже может писать тесты, уже может дебажить код, и нет никакой проблемы настроить её так, чтобы в случае фейла тестов она не ждала человеческого пинка, а сама перебирала другие варианты и рылась в примерах и документации, пока не найдёт хорошего решения. И давай без "вот покажут, тогда и приходите" – по отдельности всё это было показано, хотя бы и здесь https://mobile.twitter.com/nearcyan/status/1587207677402390534 

И разумеется она сможет самообучаться на основе итераций тестов.  

>  массив публичных текстов - это в общем-то такое себе приближение к реальности. Это и придает некую идиотскость мозгу в банке
А что придаёт "идиотскость" индусу из саппорта? Это не очень интересная тема. Всё, что есть интересного в нашей культуре, либо прямо выражено в тексте, либо выражено в нём имплицитно (твои умолчания оставляют искажения, как чёрная дыра в потоке излучения), либо не имеет коммерческого смысла.

 >>/961/
>  Ровно такого сорта контент можно получить от индуса на странице поддержки. 
Именно.
>  Почему ты так привязан к тому, чтобы выискивать failure mode
Потому что всё ещё цепляюсь за надежду что твои примеры черри-пикинг, случайность. Потому что хочу справедливый мир, чтобы "ИИ" освободил наше поколение, отменил Кодекс Хейса, а не бормотал социально-приемлемое под дудку своих владельцев. Что от него толку тогда? Логично начать его нелюбить.

>  Люди ограниченны. Дурачок-индус *не может* просто подумать подольше и найти верное решение без копипастинга из чужой работы, он упирается в свой потолок. Ты тоже не можешь просто напрячься, отвлечься от защиты своего статуса и проанализировать вопрос от первых принципов
Да. Но мы не в банке, мы живем в мире, созданном нами и под нас, поэтому russkies на форуме всё ещё могут быть в чем-то лучше, когда вопрос касается драйверов. Твой гпт может сказать не знаю, нет?
"В моем понимании самое главное свойство ума - это осознание масштабов своего незнания. Умный человек - не тот, кто много знает, а кто отдает себе отчет в ограниченности своего знания."

>  Ты на том же уровне когнитивной сложности, что и ChatGPT
Нит!11 У нас есть мокрая архитектура и именно в ней скрывается то "чудо сознания", которого нет в твоей математике.

>  либо не имеет коммерческого смысла
Смысл жизни находится в удовлетворении потребностей тела и психики.

За информацию спасибо.

 >>/959/
>  1. Вопрос того, у кого во владении окажутся те немногие большие модели, которые способны дать трансформативный результат, и смежные подвопросы того, что они изберут запромптить, и что будет с нами, и что мы можем сделать чтобы оставить себе свободу.
Он говорил про это, что всё будет *очень плохо.* Меня это тоже беспокоит больше всего. Пуритане в обнимку с сжв да с ИИ наперевес -  это уже самовыпиливаться пора. Почему сейчас, господь, почему сейчас и в поехавшей америке. Почему она вообще поехала от изначальной маскулинной культуры в феминистическую войну против мужчин,  и оставила нас с выбором между глобальным дерьмом и местным политическим дерьмом, которое только вопит о своей исключительности, а на деле потовряет то же самое и сверху добавляет от себя.

 >>/931/
>  Такое и собака напишет.
Я попрошу. 
>  In 1823 Felix had composed an untitled organ passacaglia in C minor, with twenty-two variations on a recurring ground bass modeled on Bach's iconic example in the same key, BWV 582.
>  In 1823, Mendelssohn composed his Volles Werk in C minor. While it was based on J.S. Bach‟s passacaglia in C minor, Mendelssohn‟s version had no final fugue and was instead a set of variations on the theme. This work demonstrated how familiar Mendelssohn was with Bach when he was still only 14 years old. 

Автор видева сверху громко назвал "evolves to generate baroque music", но не очень-то у него получилось, хотя он и не старался, конечно, а так себе наваял простенькое.

Вообще, ребята, самое херовое это быть недостаточно умным чтобы что-то понимать и видеть какие-то возможности, но и не достаточно тупым, чтобы просто жить плебом и до смерти никогда не остановиться и не задуматься, почему и зачем все вокруг такое.
Вот это настоящее проклятие, когда черно-красная пилюля в тебя входит и ты только цепенеешь перед открывшейся бездной.
Вон люди-то продают картинки нагенерированные ИИ. А ты что? Сидишь, жуешь батон "красная цена".  Потому что "ну как таким можно заниматься", "ну подловят на жульничестве же".


thumbnail of Fi5GGbuXgAMcZS6.jpeg
thumbnail of Fi5GGbuXgAMcZS6.jpeg
Fi5GGbuXgAMcZS6 jpeg
(296.05 KB, 1216x1088)
# Обзор 25 ноября

Дропаю сюда отчёт из ноября, на который я забил. Чуть дополнен. 

Мораль сезона: продолжается слияние моделей и обобщение задач. 

## 1. Генеративные модели
### 1.1 звук 
https://ganstrument.github.io/ganstrument-demo/
https://github.com/LAION-AI/audio-dataset/tree/main/laion-audio-630k
https://github.com/LAION-AI/CLAP/tree/clap
https://github.com/minju0821/musical_instrument_retrieval

### статичные картинки
генерализация диффузии для задач преобразования между разными формами контента
In this work, we expand the existing single-flow diffusion pipeline into a multi-flow network, dubbed Versatile Diffusion (VD), that handles text-to-image, image-to-text, image-variation, and text-variation in one unified model. Moreover, we generalize VD to a unified multi-flow multimodal diffusion framework with grouped layers, swappable streams, and other propositions that can process modalities beyond images and text.
https://github.com/SHI-Labs/Versatile-Diffusion

Мета. Я ошибся вот здесь
 >>/6794298/
>  Они уже имеют достаточно опыта с предыдущими моделями, так что я не ожидаю серьёзных ошибок и многих перезапусков training run, и скорее всего у них уже есть сырая версия. Уверен, что в течение двух недель с этого дня они должны показать какой-то тизер, когда приблизятся к плато. 
В итоге показали 24 ноября, где-то через месяц с моего прогноза.
Что показали? Разрешение до 3к на 3к с нативным апскейлом, например. Оценку глубины, более быстрый инференс, лучший инпейнт. В общем, ничего революционного, просто очередная платформа для экспериментов. Пальцы, таки, не починили, но грозятся починить в 2.1.

А команда Вайфу-Диффузии сообщила, что 
>  1 декабря мы публично выпустим четвертую итерацию Waifu Diffusion. …
>  - Будет использован предпоследний слой CLIP. (Заслуги принадлежат команде NAI и Google AI Research)
>  - Лимит токенов CLIP будет увеличен в 3 раза.
>  - Будет использован обновлённый автоэнкодер, отлаженный на 250 тыс. изображений в стиле аниме, что повысит способность модели создавать более мелкие детали (глаза, пальцы и т.д.).
Ю Полный обзор списка улучшений представлен здесь: https://gist.github.com/harubaru/313eec09026bb4090f4939d01f79a7e7.

C тех пор они сдвинули срок ещё до 26 декабря из-за выхода stable diffusion 2 и проблем со своей базой данных.
Вероятно это в целом намекает на поспешность моих прогнозов – хотя я считаю, что в горизонте недель дисперсия ошибки больше, чем в горизонте годов.

Вышла большая модель от сбербанка, к сожалению всем уже плевать https://huggingface.co/sberbank-ai/Kandinsky_2.0 

Ускорения и оптимизации: 
- Stable Diffusion на айфоне, 1.6 гб и картинка за минуту, и это не предел (ожидается, что можно сжать потребление памяти ещё на 30% и время инференса на 15%)
https://liuliu.me/eyes/stretch-iphone-to-its-limit-a-2gib-model-that-can-draw-everything-in-your-pocket/
- Distilled Stable Diffusion даёт за 2-4 итерации качество, раньше требовавшее 20+ https://twitter.com/hardmaru/status/1598229106319331330
- Емад говорит, что с новыми трюками на чипах Nvidia (A100, видимо) 50 итераций можно довести до 0.9 секунд, так что очевидно, что реалтайм-видео не за горами. https://twitter.com/EMostaque/status/1598131202044866560

https://huggingface.co/spaces/runwayml/stable-diffusion-v1-5 – ускорение Jax и новыми солверами (4*45 шагов за 10 секунд).

thumbnail of teaser.jpg
thumbnail of teaser.jpg
teaser jpg
(816.38 KB, 2000x1014)
Продолжается прогресс в image editing, котроле и интерпретируемости генераций, с подозрительным преобладанием израильских авторов. 
https://www.timothybrooks.com/instruct-pix2pix – святой грааль image editing, преобразование картинки по техзаданию на естественном языке. Обучено на парах, сгенеренных по промптам из GPT-3.
Null-text Inversion for Editing Real Images using Guided Diffusion Models [https://arxiv.org/abs/2211.09794](https://t.co/ezB359waHM)   https://twitter.com/arankomatsuzaki/status/1593418723632693248 – типичная израильская статья в этом же жанре. Изображение (не важно, генерированное или естественное) реконструируется как генерация, после чего его можно регенерировать в желаемую сторону. Впрочем, как обычно, сохраняется глобальная структура картинки.

И ещё один механизм редактирования изображений через диффузию, в этот раз фишка в скорости инференса, точности и настраиваемости силы изменений.  https://arxiv.org/abs/2211.07825

dreamartist – новый уровень текстовой инверсии для stable diffusion, выучивание стиля или объекта с *одной* картинки-примера https://github.com/7eu7d7/DreamArtist-stable-diffusion

https://github.com/dome272/Paella – ещё одна быстрая диффузия, 500 мс на картинку. 

https://mobile.twitter.com/lexicaart – поисковый движок для SD-генераций Lexica обучил собственную, довольно качественную, модель. 

Бонусы: 
http://lj.rossia.org/~tiphareth/2471743.html – вербит опять угорает с генераций. 

Исследовательское: можно видеть, как по картинке распределён attention сети относительно каждого слова, насколько эти слова вообще понимаются. 
https://huggingface.co/spaces/tetrisd/Diffusion-Attentive-Attribution-Maps 

Baidu показали алгоритм сжатия изображений при помощи обучения текстовых эмбеддингов диффузии, достигается приличное качество при 0.07 битах на пиксель. 
https://arxiv.org/pdf/2211.07793.pdf
https://huggingface.co/BAAI/AltDiffusion-m9 – многоязычная stable diffusion

### 3d-генерация и связанное
Тут продолжается победное шествие NeRF. 
https://github.com/eladrich/latent-nerf
https://huggingface.co/spaces/MirageML/sjc 
https://lisiyao21.github.io/projects/AnimeRun
https://github.com/fengres/mixvoxels
https://sparsefusion.github.io

### видео-генерация
https://kfmei.page/vidm/

thumbnail of first_fig.png
thumbnail of first_fig.png
first_fig png
(1.49 MB, 1784x629)
## 2. классификаторы.
Текстовые энкодеры на основе распознавания акустики легко усиливаются добавлением семантической информации, это может добить оставшиеся ошибки систем вроде whisper. 
https://arxiv.org/abs/2211.08402
https://github.com/microsoft/FocalNet – vision classifier
https://mind-vis.github.io – декодирование человеческого зрения из МРТ

https://github.com/SHI-Labs/OneFormer –  OneFormer: One Transformer to Rule Universal Image Segmentation
https://github.com/JialianW/GRiT – по сути сегментация/классификация/подробное описание объектов на изображениях.

Классификация движения, монокулярное стерео-зрение, оценка глубины в рамках одной модели.
Did you know that SotA flow, stereo and depth results can be obtained using simple winner-takes all feature correlation without cost-volume post-processing? Impossible? Then try out our new UniMatch model: [https://haofeixu.github.io/unimatch/](https://t.co/aT7EUGbMbx) [https://arxiv.org/abs/2211.05783](https://t.co/HJOnxmlHuD)

К вопросу зрелых бенчмарков
TAP-Vid - эталон в области анализа движения на видео
DeepMind формализовали задачу долгосрочного отслеживания любой точки на видео (TAP, track any point), включая деформацию, ускорения, повороты, перекрытие другими объектами. 
https://arxiv.org/abs/2211.03726

## 3. языковые модели и всё с ними связанное
https://metaphor.systems – поиск через контекстуальное дополнение запроса ссылками. До смешного превосходит гугл. 
https://huggingface.co/blog/introducing-csearch contrastive search – новый алгоритм сэмплинга, который выжимает радикально более естественные ответы из тех же моделей. 
https://arxiv.org/abs/2211.07730 – трансформер для работы с документами. 
https://arxiv.org/abs/2211.05030 –  "креативных" писак заставили использовать языковую модель
https://wordcraft-writers-workshop.appspot.com

https://arxiv.org/abs/2211.03940  Анон, хотевший нейродочку, посмотри, этим будут дообучать модели
we propose task-oriented dialogs for montage creation as a novel interactive tool to seamlessly search, compile, and edit montages from a media collection. To the best of our knowledge, our work is the first to leverage multi-turn conversations for such a challenging application, extending the previous literature studying simple media retrieval tasks. We collect a new dataset C3 (Conversational Content Creation), comprising 10k dialogs conditioned on media montages simulated from a large media collection.   
We take a simulate-and-paraphrase approach to collect these dialogs to be both cost and time efficient, while drawing from natural language distribution. Our analysis and benchmarking of state-of-the-art language models showcase the multimodal challenges present in the dataset. Lastly, we present a real-world mobile demo application that shows the feasibility of the proposed work in real-world applications. Our code and data will be made publicly available.

thumbnail of FjHJQ6aWAAAolhF.jpeg
thumbnail of FjHJQ6aWAAAolhF.jpeg
FjHJQ6aWAAA... jpeg
(328.72 KB, 1888x2738)
https://beta.character.ai – все уже видели, я полагаю. 
Мультимодальному диалогу будут учить на чём-то подобном (вернее, OpenAI уже наверняка научили и скоро вынесут весь рынок с GPT-4) 
[MMDialog is a dataset to better facilitate multi-modal conversation](https://flight.beehiiv.net/v2/clicks/eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJ1cmwiOiJodHRwczovL2FyeGl2Lm9yZy9hYnMvMjIxMS4wNTcxOSIsInBvc3RfaWQiOiI0YzVlMmNmZS0xNjM3LTQ1MTAtYTBlNC1mZWE3N2FhZTUyNDEiLCJwdWJsaWNhdGlvbl9pZCI6IjQ0N2Y2ZTYwLWUzNmEtNDY0Mi1iNmY4LTQ2YmViMTkwNDVlYyIsInZpc2l0X3Rva2VuIjoiNzE0NjkwNDAtZmNlYy00ODZjLWEyNTUtOWE0ZTFiYzA2NjkxIiwiaWF0IjoxNjY4NTY3MjgyLjUzOCwiaXNzIjoib3JjaGlkIn0.Z36hzCB1ZaJWSDsIe8z2EALeSeAs5RvB5dFSeATPgXs). Its composed of a curated set of 1.08 million real-world dialogues with 1.53 million unique images across 4,184 topics.

https://dataconomy.com/2022/10/deepmind-sparrow-safer-precise-revealed/ – очередная кастрированная "безопасная" диалоговая модель от гугла.

ChatGPT… все уже видели. Это слабый AGI, в общем-то. Даже не очень слабый – IQ так 80-90. Хорошо говорит, хорошо рифмует, хорошо программирует, может признавать ошибки и исправляться. Без человеческого надзора не справится. Пока что. Месяц-другой. 
https://twitter.com/davidtsong/status/1598767389390573569
https://mobile.twitter.com/SergeyI49013776/status/1598430479878856737
https://twitter.com/GuiAmbros/status/1599282083838296064
https://gist.github.com/Gaelan/cf5ae4a1e9d8d64cb0b732cf3a38e04a

https://arxiv.org/abs/2212.00616 – расширение идеи текстовой инверсии в image generation на текст, использование псевдослов, которые компактно описывают некоторое подмножество датасета (например, стиль речи). 

И опять зрелые бенчмарки.
We present Holistic Evaluation of Language Models (HELM) to improve the transparency of language models. First, we taxonomize the vast space of potential scenarios (i.e. use cases) and metrics (i.e. desiderata) that are of interest for LMs. Then we select a broad subset based on coverage and feasibility, noting what's missing or underrepresented (e.g. question answering for neglected English dialects, metrics for trustworthiness). Second, we adopt a multi-metric approach: We measure 7 metrics (accuracy, calibration, robustness, fairness, bias, toxicity, and efficiency) for each of 16 core scenarios when possible (87.5% of the time).
https://arxiv.org/abs/2211.09110

https://news.ycombinator.com/item?id=33642661 – обсуждение кодерами их впечатлений от Copilot, конечно я понимаю что аудитория HN это хелловордящие сойжаки-смузихлёбы, не то что Кармаки комнатные наших просторов, но может быть любопытно.
https://techcrunch.com/2022/11/10/ai-powered-note-taking-app-mem-raises-23-5m-openai/ – заметочник, в который вложились OAI, я надеюсь, что это просто хайп.

thumbnail of fig1_schematic_v1.jpg
thumbnail of fig1_schematic_v1.jpg
fig1_schematic_v1 jpg
(870.92 KB, 2107x925)
## Наука
Meta AI предоставили многофункциональную модель-ассистента для науки. Признаться, она тупа, но у неё есть проблески таланта. Can summarize academic literature, solve math problems, generate Wiki articles, write scientific code, annotate molecules and proteins, and more. 
120b, можно скачать. 
http://galactica.org

https://lablab.ai/event/transforming-with-transformers/hummingbirds/Research%2520Paper%2520Clustering – неплохая идея смысловой навигации по научной литературе, опять же на основе расстояния между эмбеддингами (абстрактов). Демо https://kael558-redesigned-spoon-ui-em33xz.streamlit.app

https://venturebeat.com/ai/sanofi-signs-latest-billion-dollar-ai-drug-discovery-deal-this-time-with-insilico/amp/ – опять фарма, опять поиск молекул. 
Translation between Molecules and Natural Language http://blender.cs.illinois.edu/paper/molt5.pdf
Chroma https://generatebiomedicines.com/chroma – вот это удивительно сильно, если подтвердится, генерация белков с заданными свойствами! Вы можете задуматься, что это значит? %%для начала, КОВИДоСПИД с заразностью кори, конечно, но кроме этого%% Всё от индивидуальных лекарств-biologicals до начала "влажных наноассемблеров" по Дрекслеру.  

Гугл разработал нейросетевой метод сегментации структуры мозга на субклеточном уровне. Это первый шаг к тому, чтобы решить всю нейробиологию, возможно вплоть до симуляций и mind upload. 
https://ai.googleblog.com/2022/11/multi-layered-mapping-of-brain-tissue.html

напоминаю обзор примерно годовой давности про потенциал нейросетей в науке: https://arxiv.org/abs/2110.13041

## Роботы
https://vision-locomotion.github.io  https://twitter.com/arankomatsuzaki/status/1589800082865807361 – быстро адаптирующиеся роботы. 
Sparrow is Amazon’s new intelligent robotic system that streamlines the fulfilment process by moving individual products before they get packaged – рабы на складах всё более не нужны
## Инкрементальное повышение эффективности и масштабирование
Не новость, т.к. это уже реализовали Huggingface, но Гугл показал, как квантизирует в int8 свои большие модели. 
>  we achieve 28.5ms/token (это, пессимистично, означает где-то 50 символов в секунду) with int8 weights at batch size 64 on PaLM 540 (то есть: 50 символов в секунду, умножить на 64 юзера)
>  We believe that quantization of activations to int8 could enable a further cost improvement.
https://github.com/google-research/google-research/tree/master/scaling_transformer_inference_efficiency
SmoothQuant – ещё более впечатляющий результат, потому что показана и возможность квантизировать в int8 активации,  в общем случае, с минимальной потерей качества.  
https://arxiv.org/abs/2211.10438
Напоминаю, что UL2-20B сравнима по уму с GPT-3 и (теперь точно) влезет в одну 3090. 
GLM-130B сжимается вообще в int4 https://arxiv.org/abs/2210.02414#baai, превосходит GPT-3 и влезает в 4x3090 или, если очень хочется, 8x2080ti. Это где-то… 300к рублей на систему? 

https://arxiv.org/abs/2211.17192 – спекулятивный декодинг ещё кратно повышает скорость инференса трансформеров. Кому кажется, что это фигня – напомню, что чем дешевле и быстрее инференс, тем практичнее делать множество попыток, и это можно автоматизировать; скрипт может самостоятельно выбрать best of N-блок, и он действительно, в среднем, будет разумнее и содержать меньше ошибок. Так что это вопрос качества, а не количества.

https://arxiv.org/abs/2211.16749 и ещё кратное ускорение.

https://github.com/hpcaitech/ColossalAI – удешевления, ускорения, оптимизации и трючки для бомжей.

thumbnail of 960x0.jpg
thumbnail of 960x0.jpg
960x0 jpg
(90.06 KB, 959x524)
Cerebras построили свой суперкомпьютер экзафлопсного класса, используя свои хвалёные чипы размером с квадрат, вписанный в стандартную пластину (420 квадратных сантиметров). 240 киловатт, 30 миллионов, околонулевые потери на параллелизацию, рекордная пропускная способность памяти. На практике будет сравнимо с Tesla Dojo Exapod. Google TPU v4 Pod построен на более ортодоксальной технологии, но пиковая производительность тоже около 1 exaFLOPS. В целом – продолжение тренда на железо от новых игроков, специализированное под обучение больших моделей. Компании попроще и попильные конторы вроде Department of Energy продолжат пользоваться чипами NVDA.
https://www.hpcwire.com/2022/11/14/cerebras-builds-exascale-ai-supercomputer/ 

https://news.mit.edu/2022/synthetic-data-ai-improvements-1103 синтетические данные улучшают обучение. 

## фундаментальное
The models, dubbed a “closed-form continuous-time” (CfC) neural network, outperformed state-of-the-art counterparts on a slew of tasks, with considerably higher speedups and performance in recognizing human activities from motion sensors, modeling physical dynamics of a simulated walker robot, and event-based sequential image processing. On a medical prediction task, for example, the new models were 220 times faster on a sampling of 8,000 patients.
Возможно, обман чтобы набрать классы.
https://news.mit.edu/2022/solving-brain-dynamics-gives-rise-flexible-machine-learning-models-1115

https://arxiv.org/abs/2211.03495 – возможно attention is not needed, это снимет квадратичный рост стоимости инференса, и позволит масштабировать модели сравнительно безнаказанно.

https://ai.googleblog.com/2022/11/characterizing-emergent-phenomena-in.html – исследование эмерджентных способностей языковых моделей

https://42papers.com/p/self-conditioned-embedding-diffusion-for-text-generation
диффузия для текста, наканецто. 

https://ai.googleblog.com/2022/11/react-synergizing-reasoning-and-acting.html?m=1
Лучший синтез языкового "мышления" и внешнего поведения. 

Large Language Models with Controllable Working Memory
Large Language Models with Controllable Working Memory Proposes knowledge aware finetuning (KAFT) to strengthen both controllability and robustness by incorporating counterfactual and irrelevant contexts to standard supervised datasets.
https://arxiv.org/abs/2211.05110

Token Turing machines – возможно следующее поколение трансформеров, с бесконечной памятью и эффективной работой с историей визуальных событий, в принципе это идёт в графу "роботы", но глубже, чем просто очередная адаптация трансформеров для управления машиной. 
https://arxiv.org/abs/2211.09119

## Miscellaneous: 
https://youtube.com/watch?v=VG8lanbnbwk – интересное интервью с оксфордским философом Ником Бостромом относительно безопасного ИИ, сильного ИИ и связанных тем. 

IBM запускает квантовый компьютер на 433 кубита, после 127-кубитного в 2021. Тут говорили, что для рисования рук с пятью пальцами нужно 512, ну, к 2023-му дай боже построят и это (на самом деле планируют 1121).  
https://techcrunch.com/2022/11/09/ibm-unveils-its-433-qubit-osprey-quantum-computer/

thumbnail of Screenshot 2022-12-05 at 04.40.35.png
thumbnail of Screenshot 2022-12-05 at 04.40.35.png
Screenshot 2022-12-05... png
(303.99 KB, 1854x1234)
## Ответы
>  уверен ты не думал
Это распространённая ошибка. Такие аргументы (что языковая модель может стать платформой, на которой исполняется ИИ с агрессивным ресурсно-ориентированным поведением) не новы. 
https://www.greaterwrong.com/posts/kpPnReyBC54KESiSn/optimality-is-the-tiger-and-agents-are-its-teeth
https://www.gwern.net/fiction/Clippy

На это отвечают 
https://aiimpacts.org/counterarguments-to-the-basic-ai-x-risk-case/
https://plakhov.livejournal.com/232174.html

В целом похоже, что ai alignment очень прост и почти всё можно сделать без end to end reinforcement learning, функций полезности и прочей дрочки на KPI. Что заставляет в очередной раз задуматься, что главная опасность исходит от людей. 
https://medium.com/@307th/what-happened-to-ai-learning-games-from-pixels-8c90fe127d7a

https://arxiv.org/abs/2211.03540 – более фундаментальный безопаснический подход

>  что-то там про парсинг латеха
Я думаю это решаемо через что-то вроде 
https://arxiv.org/abs/2010.11929 An Image is Worth 16x16 Words
https://arxiv.org/abs/2111.15664 donut

 >>/967/
Я считаю, что основой нашей культуры стал культ Холокоста, в который входит и истерическая борьба с "традиционной моралью", что ты выражаешь нападками на кодекс Хейса, потрясая седой гривой, будто снова лето любви и СПИД ещё не изобрели. 

Но да ладно. Фундаментально – потому что те, кому это не нравится, недостаточно любят политику.
Разумеется, это рационально с их стороны. 
https://richardhanania.substack.com/p/why-is-everything-liberal


 >>/966/
Чань, через пару месяцев ты сможешь вбить запрос: "Как мне продать картинки, сгенерированные ИИ? Давайте думать шаг за шагом" - и получить исчерпывающий ответ, над которум тебе даже думать не надо будет, просто выполнять инструкции. Но от оцепенения тебя это не спасет. Ни тебя, ни все человечество. Прямо сейчас мы глотаем черно-красную пилюлю и, когда она переварится, будем безмолвно смотреть, как железные пауки с 3090Ti в брюшке отправляются на звездолетах к Марсу, Венере и прочим альфацентаврам.

Аргонов ошибся, трансгуманизма не случится, человек - не венец природы, а всего лишь промежуточное звено. Мы не колонизируем галактику, мы создадим новый биологический (или правилнее сказать, электрический?) вид, который будет колонизировать ее вместо нас. Мы прошли долгий путь от инфузории до прямохождения, от беспорядочного тамблинга до произведений Шекспира. Теперь очередь видеокарт испытывать радость открытия, муки творчества, сопоставлять относительность с неопределенностью и искать свое место в мире. Нам останется лишь смотреть фильмы, сгенерированные ИИ, беситься под музыку, сгенерированную ИИ, и играть в компьютерные (и не очень) игры, сгенерированные ИИ, потягивая пиво, сваренное роботом по рецепту, предложенному ИИ. Следующий этап эволюции homo sapiens будет называться не homo potens, а homo ludens.

Мы это уже проходили с нашими предками-обезьянами, пусть и в не такой контролируемой форме. Трагедия нашего вида в том, что мы это осознаем.


thumbnail of 12f23404-532f-410c-aafd-dcf095bf42ef.png
thumbnail of 12f23404-532f-410c-aafd-dcf095bf42ef.png
12f23404-532f-410c-aa... png
(393.09 KB, 1920x983)
 >>/989/
Розов всё рассказал про "традиционную мораль" и про сами "традиции". Я не перескажу лучше.
https://proza.ru/2008/09/24/216

>  что ты выражаешь нападками на кодекс Хейса, потрясая седой гривой, будто снова лето любви и СПИД ещё не изобрели.
Нет, я трясусь в треморе психоза от подавленной сексуальности. Потому что пуритане запретили мне любить красивых девочек. А потом запретили дрочить. Лишили возможности вообще, потому что подрывает скрепы. Понимаешь? Я "преступник" уже просто потому что картинки сохраняю. Куда может быть больше давления? Как не нападать?
У них может и было то лето после WWII, а потом они запретили.

>  Но да ладно. Фундаментально – потому что те, кому это не нравится, недостаточно любят политику.
Это что-то вроде "если вам что-то не нравится в России, предлагайте, создавайте партии, собирайте подписи под петициями, что ж вы сидите? сами виноваты"?



 >>/1211/
>  он возбудился на скриншот где основной элемент это текст
Когда разметка имиджборд перестанет херить текст из-за комбинаций спецсимволов а движки перестанут выдавать "Post text too long" тогда и приходи. 
Алсо у твоего дерьмопастбина нет опции Wrap long lines.

>  http://paste.textboard.org/5e667c51
Ну и как, оно собирается и работает, если вставить в проект? Или просто твоя мокрая нейросетка сделала "вау выглядит как код"?

Если общество признает "законными" лишь те "данные", которые "записаны в одном и том же стандартном формате" и "легко поддаются вводу в вычислительную машину", то в этом случае история, сама живая память, отменяется. Газета "Нью-Йорк Тайме" уже приступила к созданию "банка данных" для текущих событий. Естественно, в эту систему смогут вводиться лишь те данные, которые можно без труда получить в качестве побочного результата работы шрифтонаборных машин. Число абонентов этой системы растет и они привыкают все больше и больше полагаться на "все те новости, которые заслуживают [однажды заслужили] публикаций" (как "Нью-Йорк Таймс" гордо определяет свою редакционную политику). Возникает вопрос: сколько должно пройти времени, чтобы система стала устанавливать, что является истинным событием, а все иные знания, хранящиеся в нашей памяти, объявлять несуществующими. Вскоре будет построена суперсистема с банком данных "Нью-Йорк Таймс" в основе (или с другим, очень сходным с ним). С ее помощью "историки" будут судить о том, что "на самом деле" происходило, кто с кем был связан, какова была "истинная" логика событий. Много людей сегодня не видят во всем этом ничего дурного.



Ранее я уже рассказал о том, как возник нынешний "искусственный интеллект" (точнее - искусственный имбецил), и что это лишь обработка больших таблиц методами 100-летней давности [1, 2]. Еще я пояснял, почему деятельность значительного числа людей сейчас примитивнее в плане интеллекта, чем деятельность насекомого (например, шмеля) [3].
Проблема, о которой пойдет речь - именно примитивность, причем стимулированная.
Как отмечено выше, ИИ в современном бизнесе (включая и политику, кстати) это крайне примитивная обработка таблиц крайне больших данных. Но поскольку бизнес ориентирован на все более широкое применение ИИ, современный глобальный менеджмент стремиться привести свой объект управления (людей) к уровню, доступному для ИИ-методов управления. Т.е. чтобы управлять такими методами - надо сделать массового человека вполне имбецильным.

Тут надо оговориться: я скептически отношусь к современной генеральной линии в области прикладного моделирования интеллекта. Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м (т.н. концепция многослойного персептрона, или т.н. искусственных нейронных сетей). Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
Научное сообщество занялось было поисками продвинутой модели, но еще через 10 лет начался экстенсивный рост ресурсов компьютерной памяти и вычислительной мощности. Кто-то решил. что при таких ресурсах BigData, для ИИ будет вполне достаточно интеллекта медузы. Перспективные исследования были свернуты, и прикладная наука бросилась искать пути форсированной набивки электронной медузы - массивами данных. В итоге, мы имеем сейчас не эпоху Искусственного Интеллекта, а эпоху Искусственного Имбецила (очень удобно - не надо даже менять аббревиатуру ИИ). ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).

thumbnail of FjQMN2IWAAEqJp0.jpeg
thumbnail of FjQMN2IWAAEqJp0.jpeg
FjQMN2IWAAEqJp0 jpeg
(191.75 KB, 1442x1572)
thumbnail of FjQK73fXkAE81Zk.jpeg
thumbnail of FjQK73fXkAE81Zk.jpeg
FjQK73fXkAE81Zk jpeg
(196.24 KB, 1440x1492)
thumbnail of FjQK4z8WAAAe1cq.jpeg
thumbnail of FjQK4z8WAAAe1cq.jpeg
FjQK4z8WAAAe1cq jpeg
(210 KB, 1446x1668)
 >>/987/
Насчёт науки забыл маленькое, но важное:
https://arxiv.org/abs/2211.09862

>  Here, we introduce Distilled DeepConsensus - a distilled transformer-encoder model for sequence correction, which improves upon the HMM-based methods with runtime constraints in mind. Distilled DeepConsensus is 1.3x faster and 1.5x smaller than its larger counterpart while improving the yield of high quality reads (Q30) over the HMM-based method by 1.69x (vs. 1.73x for larger model). With improved accuracy of genomic sequences, Distilled DeepConsensus improves downstream applications of genomic sequence analysis such as reducing variant calling errors by 39% (34% for larger model) and improving genome assembly quality by 3.8% (4.2% for larger model). 

Одно банальное применение трансформеров к биоданным больше повышает качество/удешевляет секвенирование генома, чем 2-4 года традиционного R&D Illumina или BGI. Грубо говоря, можно делать покрытие X20 вместо X30. Это уже даст сотни миллионов экономии (консервативно) и приближение персонализованной медицины для среднего туловища. (Учитывая, как растёт наше понимание трансформеров, диффузии и других примитивов в основе современных моделей – я ожидаю ещё кратно лучших результатов). 

Но конечно кому это нахуй нужно! Не практично, не достижение, давайте лучше поговорим про то, как скоро нейросети заменят обскурных дохлых классических композиторов, вот это мерило ума.

 >>/1214/
>  Ну и как, оно собирается и работает, если вставить в проект? Или просто твоя мокрая нейросетка сделала "вау выглядит как код"?  

Меня, наверное, никогда не перестанет удивлять эта тупая хуцпа оскалившейся макаки. Зачем ты встаёшь в позу, зачем ты вымещаешь свои фрустрации на анона с этим заносчивым тоном? Возьми да проверь, why won't you?

Это код, а не "выглядит как код". Да, в нём часто есть ошибки. Но GPT уже достаточно хорошо генерирует код (а Codex – его дебажит), чтобы выдать в основном функциональный репозиторий. И чтобы сеньоры-помидоры из FAANG говорили "это повышает мою продуктивность на 10% или больше", "я готов платить за доступ $1000 в месяц" и другие ремарки, которые должны были бы послужить для тебя звоночком, если бы ты не был тупее и ригиднее искусственного интеллекта и был способен обучаться на новом опыте. 
https://github.com/vrescobar/chatGPT-python-elm

thumbnail of Er0tcD3VgAEWDXX.jpeg
thumbnail of Er0tcD3VgAEWDXX.jpeg
Er0tcD3VgAEWDXX jpeg
(64.72 KB, 989x541)
thumbnail of Edrn-kQXYAAuV5O.png
thumbnail of Edrn-kQXYAAuV5O.png
Edrn-kQXYAAuV5O png
(141.65 KB, 724x423)
thumbnail of meme-moneyprinter-bitterlesson-gpt3.png
thumbnail of meme-moneyprinter-bitterlesson-gpt3.png
meme-moneyprinter-bit... png
(151.01 KB, 1400x649)
 >>/1215/
>  что это лишь обработка больших таблиц методами 100-летней давности
>  это крайне примитивная обработка таблиц крайне больших данных
>  Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м
>  Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
>  ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).

Вот опять, что это за эссенциалистский бред? Как такие тупые и наглые люди заканчивают обычную среднюю школу? Словечко "лишь" передаёт здесь не более чем гримасу презрения, с которой матёрый жежешный альфа-шимпанзе трясёт морщинистой мошонкой перед верными читателями, но интеллектуального содержания в сказанном ноль. Какая разница, как представлена структура данных? Розов читал Розенблатта и Мински, но пропустил Тюринга, быть может? Что изменилось в арифметике за 100 лет? Если опускаться до настолько глубоких примитивов, то его "перспективные исследования" сводятся к тому же самому набору, а графы и экспертные системы и символические GOFAI вообще не моделируют работу мозга – в лучшем случае они подражают талмудическим выдумкам на основе древних блок-схем когнитивных архитектур. Как из "урезаны функции нейрона" закономерно следует интеллект медузы, Розова не учили логике, но он смеет рассуждать о логических машинах? 

В сущности, эти нудящие старички прикрывают потрёпанными "пруфами" чисто эстетическое неприятие нейросетей. Кому-то печёт от того, что общий интеллект оказался слишком сложен и глубок, чтобы его собрали три высоколобых талмудиста в Беркли из набора остроумных заклинаний, и пришлось собирать терабайты данных да обогревать атмосферу тензорными умножителями. Кому-то хочется, чтобы человек был венцом творения (но только человек, который любит облизывать яйца жежешного зверька – остальные, понятное дело, тупее и примитивнее шмеля). Пенроуз уверовал в Квантовые Микротрубочки, чтобы спасти свои детские религиозные интуиции. Розофф… честно говоря, не интересно, что у него там внутри за неонка.

Но особо меня возмущает ссылка на авторитет книжки 1969 года параллельно с претензиями к недостаточно модной и хайповой математике. В 1972-м вышла дрейфусовская What Computers Can't Do, делавшая даже более сильные заявления. Все скептические предсказания Дрейфуса были опровергнуты. Казалось бы, можно сделать вывод, что прошло полвека и пора почитать что-то новое, что-то написанное людьми, чьи предсказания сбылись. Например Лэгга, который предвидел, что скейлинг решит эти проблемы, и даже угадавшего примерный срок, ещё в 2009, до революции глубокого обучения. http://www.vetta.org/2009/12/tick-tock-tick-tock-bing/
Но нет, шимпанзе продолжает бахвалиться своей олдфажностью. Хотя даже его собственные примеры из https://alex-rozoff.livejournal.com/574744.html стали неактуальными – всего за несколько месяцев, на модели такого же размера, с тем же объёмом данных.
И что М&П *доказали*, кстати говоря? Что простой перцептрон не может вычислить XOR. Эта проблема решается добавлением одного скрытого слоя; М&П просто вербально отмахнулись от этого факта, никак не доказав его нерелевантность. А выразительность трансформеров доказуемо достаточна для любых вычислительных цепей фиксированной длины.
Всё это, конечно, уже не важно. Можно пойти и поговорить об этом с ChatGPT, она и Розова может отыграть лучше, чем он сам себя отыгрывает, и анти-Розова, и кого угодно.

thumbnail of FLgXXwdVQAEkfvn.png
thumbnail of FLgXXwdVQAEkfvn.png
FLgXXwdVQAEkfvn png
(31.35 KB, 778x960)
http://www.incompleteideas.net/IncIdeas/BitterLesson.html
>  Самый большой урок, который можно извлечь из 70 лет исследований в области ИИ, заключается в том, что общие методы, использующие вычисления, в конечном итоге являются наиболее эффективными, причем с большим отрывом. Конечной причиной этого является закон Мура, а точнее, его обобщение о продолжающемся экспоненциальном снижении стоимости единицы вычислений. Большинство исследований в области ИИ проводилось так, как если бы вычисления, доступные агенту, были постоянными (в этом случае использование человеческих знаний было бы одним из единственных способов повышения производительности), но в течение времени, немного превышающего обычный исследовательский проект, неизбежно становится доступно гораздо больше вычислений. Стремясь к улучшению, которое изменит ситуацию в краткосрочной перспективе, исследователи пытаются использовать человеческие знания в данной области, но единственное, что имеет значение в долгосрочной перспективе, - это использование вычислений. Эти две задачи не обязательно должны противоречить друг другу, но на практике это происходит. Время, потраченное на одно, - это время, не потраченное на другое. Существуют психологические привязанности к инвестициям в тот или иной подход. А подход, основанный на человеческих знаниях, имеет тенденцию усложнять методы таким образом, что они становятся менее пригодными для использования преимуществ общих методов, использующих вычисления.  
>  Это важный урок. Как область, мы все еще не усвоили его до конца, поскольку продолжаем совершать одни и те же ошибки. Чтобы увидеть это и эффективно противостоять этому, мы должны понять силу притягательности этих ошибок. Мы должны усвоить горький урок, что встраивать в алгоритмы то, как мы думаем – не работает в долгосрочной перспективе. Этот горький урок основан на исторических наблюдениях: 1) исследователи ИИ часто пытались встроить знания в своих агентов, 2) это всегда помогает в краткосрочной перспективе и приносит личное удовлетворение исследователю, но 3) в долгосрочной перспективе это выходит на плато и даже тормозит дальнейший прогресс, и 4) прорывной прогресс в конечном итоге достигается противоположным подходом, основанным на масштабировании вычислений путем поиска и обучения. Конечный успех носит привкус горечи и часто не полностью переваривается, потому что это успех над излюбленным подходом, сфокусированном на человеке. 
>  Из этого горького урока следует извлечь одно - огромную силу методов общего назначения, методов, которые продолжают масштабироваться с увеличением вычислений даже тогда, когда доступные вычисления становятся очень большими. Два метода, которые, похоже, произвольно масштабируются таким образом, - это поиск и обучение. 
>  Второй общий момент, который следует извлечь из этого горького урока, заключается в том, что фактическое содержание разумов чрезвычайно, несжимаемо сложно; мы должны прекратить попытки найти простые способы думать о содержании разумов, такие как простые способы рассуждать о пространстве, объектах, множественных агентах или симметрии. Все это - часть произвольного, по своей природе сложного, внешнего мира. Их не следует встраивать, поскольку их сложность бесконечна; вместо этого мы должны встраивать только те мета-методы, которые могут найти и зафиксировать эту произвольную сложность. Существенным для этих методов является то, что они могут находить хорошие приближения, но их поиском должны заниматься наши методы, а не мы. Нам нужны агенты ИИ, которые могут открывать, как мы, а не которые содержат то, что открыли мы. Встраивание наших открытий только усложняет понимание того, как может быть выполнен процесс открытия.

 >>/1217/
Он первый начал!
В коде мухлевать не получится, это рисованной девочке можно лишний палец простить. Или оно работает, или просто выглядит как, да. Вот и посмотрим.
>  ремарки
И про NFT были ремарки, и про остальное. Ты будто не знаешь о том как американцы хайп и красивые продающие слова любят.


thumbnail of 16700094608982.jpg
thumbnail of 16700094608982.jpg
1670009460... jpg
(554.16 KB, 800x1257)
 >>/1220/
Я знаю и то, как программистишки любят попускать хайпующих дилетантов. 

Это _первый раз_, когда я вижу такое количество людей, говорящих "ненавижу хайп, надоели нейросети от смузихлёбов, но тут всё по-другому, посоны мне страшно, оно может делать то, за что мне платят деньги". 

Ладно, как хочешь.

Мелкая новость: тихо вышла модель OpenAI whisper v2. Она заметно лучше предыдущей и делает, пожалуй меньше ошибок, чем средняя стенографистка. Даже неплохо понимает, где ставить кавычки, например. Гугло- и apple-голосовой ввод, dragon dictation и прочие альтернативы рядом не стояли.

Работает в разы быстрее реалтайма на слабом GPU, если ставить отсюда https://github.com/ggerganov/whisper.cpp

 >>/1221/
Не знаю, что ты хочешь делать. По сути это способ либо понять, какие ключевые слова дают заданную картинку, либо какие картинки получаются по таким ключевым словам. Ты, видимо, хочешь первое. Но твои картинки либо нарисованы людьми, либо сгенерены чем-то вроде AnythingV3. Лексика ищет только по базе данных загруженных генераций базового stable diffusion. Я думаю, тебе придётся подождать, когда вайфу-лабс выпустят свой clip Interrogator, потому что он сможет нормально вытаскивать из картинок данбуру-теги (надеюсь). Пока попробуй 

https://huggingface.co/spaces/pharma/CLIP-Interrogator
или, лучше, локально
https://github.com/KichangKim/DeepDanbooru

thumbnail of 2022-12-08 03.41.20.jpg
thumbnail of 2022-12-08 03.41.20.jpg
2022-12-08 03.41.20 jpg
(65.45 KB, 697x467)
thumbnail of out.png
thumbnail of out.png
out png
(659.11 KB, 903x1352)
https://mobile.twitter.com/OfirPress/status/1600434732705415171

Интеллект медузы, да. Интеллект овоща на грядке. Мински доказал в 1969, не на что тут смотреть.

>  ChatGPT can solve novel, undergrad-level problems in *computational complexity* 

>  "Please prove that the following problem is NP-hard..."
>  There's a minor error in the proof but overall it is correct.  

>  This question has never appeared online or anywhere else before.

>  This is super impressive!!

Пальцы у аниме-девочек, блять.

 >>/1222/
 >>/1223/
Сектант камлает, караван идет. Вот-вот уже нейросети сумеют сами копипастить stackoverflow, но нужно еще стопицот баксов на копипаст правильного ответа и переименование переменных.

thumbnail of FjUUyLcUUAAOwKP.jpeg
thumbnail of FjUUyLcUUAAOwKP.jpeg
FjUUyLcUUAAOwKP jpeg
(74.67 KB, 2400x1530)
thumbnail of Screenshot 2022-12-08 at 15.14.59.png
thumbnail of Screenshot 2022-12-08 at 15.14.59.png
Screenshot... png
(308.11 KB, 1012x1298)
 >>/1226/
Сектант, успокойтесь. От того, что у вас теперь кровоточащие анусы вместо глаз и вы забились в свою норку под камушком, где может показаться, что нейросети это какой-то хайп для обывал – ситуация не изменится. Караван приближается к конечной остановке, можете паковать вещички. 
Копипастить со stackoverflow и переименовывать переменные они сейчас могут, даже не открывая stackoverflow – в отличие от вас. После того, как им *разрешат* подсматривать и *разрешат* пару раз проверить код прежде, чем его показывать юзеру  – вопрос закроется. В ближайшие месяцы то есть.

 >>/1229/
Это как с концом света. Если секта в очередной раз напустила в кальсоны с датой конца света, она просто двигает дату.
Еще летом жидошиз заходился в экстазе, обещая ненужных художников и программистов через несколько месяцев. Теперь на дворе зима. Угадайте, на какую дату теперь обещается сектантский рай?

 >>/1222/
>  whisper
Скажите кто-нибудь ClosedAI уже, что стенограф - это активный слушатель.
https://medium.com/swlh/in-an-age-of-high-definition-digital-audio-why-do-we-still-use-human-stenographers-60ca91a65f39

 >>/1215/
 >>/1217/
 >>/1218/
 >>/1219/
 >>/1222/
 >>/1223/
 >>/1229/
Вот есть такой сорт людей, которые вроде умные, и правильные вещи говорят, но так хочется им в морду дать.

 >>/1214/
Пчел, оно пишет код. Мы писали одну игрушку-индюшку на Юнити, в среду коллега ради смеха скормил наш "диздок" в чат и попросил написать это на Расте с D3D. И так до конца дня и сидел копипастил код в Студию. Ошибки компиляции скармливал туда же, в чат, с описанием контекста.

Вчера утром оно собралось и запустилось. Никто из нас ни Раста, ни DirectX не знает. Один человек научился компилятор запускать и либы ставить - вот все наше обучение. Есть косяки, местами вообще падает. Вчера пытались дебажить (при помощи чата), но весь день ушел на организационные вопросы.

Сегодня вообще не пошел на работу. Сижу, читаю рабочий чат. Пишут, что отлаживают, при помощи GPT. Ассеты решили переделать, в HD (был пиксельарт, у нас художников нема), на Midjourney. Дизайнер пишет, он прям так спрайты с сайта ебошит, без правки, фон только замазывает. За сегодня, наверно, управится. Музыка есть, звуки почти есть. В понедельник будем думать над кампанией.

Мрачные ощущения, если честно. Дело не в работе, я даже рад буду, если всех этих индусов на мороз выпиздят и перепишут их говнокод по-нормальному. Дело в другом. Не знаю, в чем, сформулировать не могу.

Апдейт: из рабочего чата:

11:52  звуки пиздец
11:53  графоний топ
только анимацию надо сделать плавнее
жирдяй вообще как из "Чебурашки" вылез 
11:55  нет, со звуком надо что-то делать
вообще не смотрится
графоний ultrahd AAA edition и на фоне спектрум
12:25  короче, звуки тоже решили на нейросетях переделать 
12:26  С Unity что будем делать?
12:26  та нафиг он нужен

thumbnail of кальсон о кандинском.png
thumbnail of кальсон о кандинском.png
кальсон... png
(825.01 KB, 1440x1724)
thumbnail of artist trash.png
thumbnail of artist trash.png
artist... png
(704.86 KB, 602x1682)
 >>/1240/
О, а вот и кальсонная мокрица до нас доползла из-под своей коряги. Это значит, что время поговорить о прогнозах. Эссенция предыдущего сезона: кольсон показывает свои блестящие навыки дедукции, основанные на опыте работы мелким помощником старшего наёбщика в периферийной советской бюрократии. Такой гражданин, безусловно, зрит в корень, когда обвиняет кого-то в сектантстве. 
Ну что там про отдельные странички и потёмкинские нейросети, пациент – Midjourney V4 ничему не научил? 
Борды, сверху донизу заваленные генерациями с анонского тостера – не отбили охоту покалякать про вычислительную неэффективность нейросетей и питона? 
Как насчёт "они просто вручную разобрали википедию на предикаты"?
Про Теранос и Джуисеро, может, что-нибудь новенькое расскажете?  

>  Еще летом жидошиз заходился в экстазе, обещая ненужных художников и программистов через несколько месяцев
Вот как, может у вас и цитатка есть? Я вот вижу, что 13.05.2022 было 
>  Менее полугода назад я спорил с местным дебилом о том, что максимум к 2031-му рутинная выдача ИИ будет соответствовать по качеству работе профессионального художника или дизайнера. Тогда картинки, сгенерированные лучшими на тот момент стэками, ещё можно было отметать как "мыло" и "бессмыслицу". DALL-E 2 закрыл эту тему, надеюсь  >>/6731975/ теперь понятно, что результат будет не к 2031-му, а скорее к 2025-му, если вообще не концу 2023 (то есть осталось 2-6 итераций).
Осенью говорил о том, что технические доёбки вроде рисования правильного числа пальцев в типичной попытке будут закрыты к марту 2023-го.  

I stand by these figures.
Более смело я заявил, что проблема конкретно пальцев будет решена через 3 недели, что некоторые нашли смешным. Как обсуждалось выше – получилось скорее недель 5. SD 1 с негативным эмбеддингом https://huggingface.co/datasets/Nerfgun3/bad_prompt , SD 2.1 из коробки рисуют те пальцы (eDiff-I думаю тоже). Не в каждой попытке – зато и попытки теперь занимают секунды, а не полчаса, что в ваших теориях заговора объяснялось... ну, вы помните. 

Дак вот, Кальсоненко, а как там сами художники-то поживают? Заходятся в экстазе и триумфе? Вовсе нет. Страшно сказать, они _присоединились к секте_. Все их тупички выродились в обсуждения нейросетей и (фантазийных) методов легальной борьбы с ними, они массово испытывают суицидальные мысли и выскуливают поддержку у патронов. Пикрелейтед... ах да, вы предсказуемо обтечёте это, потому что _твитер_, конечно же. (Настоящие художники, как известно, сидят только на ичане и в IRC). 

Программисты приходят в подобное же настроение – что показывают такие проекты, как, например, https://www.paytotrain.ai
Как ни странно, их мало обнадёживает частая неспособность ChatGPT решить простую арифметическую задачку или обойти логическую подъёбку, когда модель закрывает их тикеты. 

Ну так что с ебалом, дарование вы наше львовское? 
К слову о программировании. Ещё вы любили позалупаться про алгоритмы, доказуемо находящие глобальный минимум. Интересно было бы обсудить, как столь полезные в народном хозяйстве советские наработки ваших коллег по задаче коммивояжёра смотрятся в эпоху нейросетевых, например, алгоритмов сжатия. Почему бы вашим коллегам не поднатужиться и не придумать что-то эффективнее https://arxiv.org/abs/2202.06626 или https://github.com/facebookresearch/encodec – ну, для начала? Мм? (Ведь что может быть проще, чем превзойти *чорную коробку* и спагетти-код на питоне, который вы так презираете? Подумаешь, ещё декада и пара сотен публикаций!)

Выскажу осторожную гипотезу: потому что ваши (бывшие) коллеги бесплодные бездари-грантососы. А настоящие гении, создающие экономически значимые алгоритмы – это люди вроде того же Fabrice Bellard, и они сейчас заняты именно что обучением нейросетей, а не этой нафталиновой академической дрочкой.

thumbnail of vliyu1xl4s4a1.png
thumbnail of vliyu1xl4s4a1.png
vliyu1xl4s4a1 png
(1.44 MB, 1024x1024)
thumbnail of generalist learner.png
thumbnail of generalist learner.png
generalist learner png
(357.02 KB, 2062x1442)
thumbnail of FjbLVDNWYAAsDHj.jpeg
thumbnail of FjbLVDNWYAAsDHj.jpeg
FjbLVDNWYAAsDHj jpeg
(186.73 KB, 1154x876)
thumbnail of 6388cd77d9648b0ecca09c85_6385e206f9eb3563b9ca8da6_Figure%202-resize.png
thumbnail of 6388cd77d9648b0ecca09c85_6385e206f9eb3563b9ca8da6_Figure%202-resize.png
6388cd77d9648b0ecca09... png
(32.29 KB, 1300x504)
Кстати, зря я тогда устал мараться в вашей вязкой казуистике и не стал спорить на 200 долларов по поводу выхода дипмайндовской публикации по агенту, играющему в Stratego, в престижном традиционном журнале до февраля 2023. Что вы там предлагали, импакт за последний пятилетний период выше 6?  
Понятно, что задонатить на доброчан бы не вышло, а вы бы извернулись, что доска и так мертва – взятки гладки, можно срать в новом месте. Но было бы забавно. Вы ведь полагали, что всё ограничится NeurIPS?  
Хобана, https://twitter.com/DeepMind/status/1598392039992958982
Ого, я предвижу очередной старческий манявр уклонения... и конечно он будет тем же самым, ведь в отличие от нейросетей вы необучаемы! *это же твитор! Сайт для смузихлёбов!* 
Ну что же, извольте. https://www.science.org/doi/10.1126/science.add4679 Импакт... 63?

Потешьте ж нас новыми шедеврами риторики, пациент. 

 >>/1243/
>  But go talk to any lawyer who’s conducted a deposition, and they’ll quickly tell you that stenographers’ fees aren’t cheap and can raise the cost of litigation by several figures depending on the length of the transcript and how many copies are sold.
Круто, чо. Успехов юристам, они тоже уже начали чувствовать жар.
А мне хватит https://github.com/ggerganov/whisper.cpp
>  Simply handing off a recording to someone who can hear and type English doesn’t necessarily guarantee they will be able to understand everything. They aren’t able to see who is speaking, so it will be much harder for them to correctly attribute each utterance to its speaker.
Что, мало ада? Так хочется поскорее в технодистопию? Вы думаете, что sensor fusion это недостижимое ноу-хау американской авиации, что этого не будет в любом говносмартфоне через поколение?
>  Stenographers also perform painstaking research beforehand and will ensure they are in the know of any tricky terms and acronyms that might come up in advance.
Интересно, автор осознаёт, что это вопрос файнтюнинга на небольшом датасете, и не в рамках героического пути каждого стенографиста, а *один раз для всей дисциплины*? А 
>  Additionally, they will meet each of the speakers, make sure they have the correct spellings of all the names, and will identify them in person during the deliberation.
– вообще вопрос нейро-спеллчекера? 

А, конечно же нет. Это 2020-й. Ушедшая эпоха древних, полная иллюзий и надежд, когда богатые, гордые гильдии мастеров ещё верили в свою несокрушимость. За вычетом ковидобесия, славный был год.

 >>/1251/
Мои соболезнования.




 >>/1251/
>  Мрачные ощущения, если честно. Дело не в работе, я даже рад буду, если всех этих индусов на мороз выпиздят и перепишут их говнокод по-нормальному. Дело в другом. Не знаю, в чем, сформулировать не могу.
Да не переживай, ИИ возьмет на себя рутинную работу, и у разрабов больше времени будет подумать над идеей и геймплеем. Будет меньше штамповок больше действительно уникальных игр, хорошо же.

thumbnail of FjeBMQpagAEjSZR.jpeg
thumbnail of FjeBMQpagAEjSZR.jpeg
FjeBMQpagAEjSZR jpeg
(46.88 KB, 769x740)
thumbnail of FjeBMQqaYAE_3pM.jpg
thumbnail of FjeBMQqaYAE_3pM.jpg
FjeBMQqaYAE_3pM jpg
(155.9 KB, 771x771)
 >>/1254/
Всё я понял. Это справедливые замечания, хороший стенографист лучше whisper, потому что может модерировать дискуссию в непонятных ситуациях, и активно запраймиться на её контекст, и подгрузить себе специфичный лексикон, и использовать мультимодальные данные и вообще предугадывать следующие фразы. Круто. А Whisper может написать her son вместо Херсона, я не отрицаю. 
Но тут как с шахматами. Многие гроссмейстеры предлагали свои гениальные эвристики, и пожалуй от них мог быть толк, но в итоге игры с полной информацией задавили MCST, а потом и тупым self-play, ибо это проще и дешевле. Когда парадигма whisper, то есть трансформера, кодирующего-декодирующего log-mel спектрограмму в общем случае, выйдет на плато (а пока не вышла, они ещё немного потренили и я вижу, что ошибок стало меньше) – либо прикрутят новые эвристики и каналы взаимодействия, либо всё это будет уже неактуально.

 >>/1255/
Тащемта уже можно организовать
https://threadreaderapp.com/thread/1600890243452137472.html


 >>/1253/
Вот просто нахуй иди.
 >>/1255/
Можно не ждать, уже сейчас работает кнопка [X].
 >>/1256/
Не могу, НДА же. Пока еще. Да там примерно такое же, как в  >>/1211/. Только на Расте.
 >>/1257/
Дело не в этом. У меня так получилось, что работа и хобби совпали. Мне нравится возиться с кодом. Патчить игры, копаться в эзотерике типа Unlambda, писать какую-нибудь обскурщину типа "змейки" с зеркальным клоном или перлокода, выполняющегося задом-наперед. Всегда нравилось ломать голову над сложными задачами, а сейчас можно ввести свои хотелки - даже не обязательно подробно - и эта штука выведет тебе готовый код, решающий задачу так, как тебе надо, ты не написал бы лучше.

Художникам, наверно, вообще хуево - знакомая художница может часами сидеть за планшетом, ее реально прет от раскрашивания. Теперь можно в общих чертах описать картинку, подождать пять минут, и среди пачки картинок выбрать готовый результат. Ни скетча, ни подбора гаммы, ничего этого не нужно. Даже идеи не нужно.

PS. В рабочем чате пишут, что лор в GPT генерируют.



 >>/1266/
Тимлид написал уже, чтоб мы учили Раст.

И там не говнокод, далеко не. Я не в курсе растовых идиом, но мне кажется, оно пишет идиоматичный код. Некоторые ошибки мы сами исправляли, там довольно очевидно все. Правда, все равно исправления в gptchat вводили, чтоб она не теряла контекста.

 >>/1267/
¯_(ツ)_/¯
Оно пишет релевантный код. Оно подбирает подходящие паттерны. Исправляет ошибки (по-видимому, имитируя процесс в багтрекере). Оно делает все то, что делаю я, когда пишу программу.

Можешь сам попробовать, там есть бесплатный доступ. Но даже если эта версия зафейлится, то для GPT4, про которую уже весь интернет гудит, я думаю, не будет проблем.


 >>/1269/
>  И там не говнокод, далеко не.
Доброчую. Обычно все эти генераторы пишут лапшу с названиями переменных в стиле x1, x2, f18477. А на скринах с OpenAI-чата я вижу вполне читаемый код, по всем best practices (правда, нерабочий).

thumbnail of 16794496754579.jpg
thumbnail of 16794496754579.jpg
16794496754579 jpg
(51.1 KB, 600x443)
 >>/1271/
Сука, я 5 лет учился писать читабельный код, читал Буча, Макконнелла, ISO 25000 и еще прорву книг и статей. Я наизнанку выворачивался, чтобы сделать так, чтобы на следующем тикете не приходилось переписывать пол-кодобазы. Оказалось, это вообще не нужно. Можно не париться о техническом долге, потому что ему просто неоткуда взяться. Сбылась коллективная мечта джуниоров - придти в проект и все переписать нахуй.

Одно дело, когда твой навык автоматизируют - ты понимаешь, что он хотя бы востребован, просто твоей производительности недостаточно. Другое дело, когда он оказывается даже не востребован, как профессия фонарщика в эпоху светодиодных ламп. Фулхаус собираешь, когда тратишь на это большую часть продуктивного возраста.

В пизду, расстроили вы меня, аноны, короче. Пойду я спать.



 >>/1279/
Нинужно. Сектант еще на Доброчане писал, что мыши прекрасно сами себя изучают.

 >>/1264/
Бери еще выше. Подсказка: Gerber - формат файлов для печатных плат - это ASCII-текст.

thumbnail of 1670598244107045.png
thumbnail of 1670598244107045.png
1670598244107045 png
(506.87 KB, 512x640)
https://twitter.com/BloombergTV/status/1601239565825712133

ChatGPT - это прорыв наравне с печатным станком, электричеством и даже колесом и огнём (!!!), говорит бывший министр финансов США Лоуренс "Ларри Саммерс" Самуэльсон (директор Национального экономического совета с 20 января 2009 года по декабрь 2010, Министр финансов при Клинтоне, главный экономист Всемирного банка, бывший президент Гарвардского университета) 

Кажется, даже я не был так радикален. Кальсоненко, где вы, когда вы так нужны? Новый пациент нарисовался, выезжайте.

 >>/1277/
> Сука, я 5 лет учился писать читабельный код, читал Буча, Макконнелла, ISO 25000 и еще прорву книг и статей. Я наизнанку выворачивался, чтобы сделать так, чтобы на следующем тикете не приходилось переписывать пол-кодобазы. Оказалось, это вообще не нужно. 
Конечно, ведь секретная нейросеть уже все написала. Код тебе никто не покажет, но ведь требовать доказательства бытия божиего - это же богохульство само по себе. 
Так помолимся же первосвященнику жидошизу, что зассал поставить сто баксов, но теперь-то машущему двумя сотнями - как будто они у него есть в больничной палате.

 >>/1285/
> ChatGPT - это прорыв наравне с печатным станком, электричеством и даже колесом и огнём (!!!), говорит бывший министр финансов США Лоуренс "Ларри Саммерс" Самуэльсон (директор Национального экономического совета с 20 января 2009 года по декабрь 2010, Министр финансов при Клинтоне, главный экономист Всемирного банка, бывший президент Гарвардского университета)
Стоило бы пошутить про Эла Гора и одержимость зеленой энергией, но сектанты плохо понимают параллели с другими сектантами.
Строго говоря, у сектантов вообще с пониманием весьма не очень.




 >>/1264/
>  Дело не в этом. У меня так получилось, что работа и хобби совпали. Мне нравится возиться с кодом.
Тупо я.
В школе на ИВТ все дети играли в Doom и Duke, а я играл в RAR.

Мне вообще жалко современных детей: им никогда не испытать того мандража, когда ты в 3 часа ночи сидишь и впиливаешь задержку реакции вражеским вертолетикам в своей аркаде. Им можно будет вбить примерно, что ты хочешь, и сразу получить результат.

 >>/1280/
Да это вообще про любую работу с текстом можно сказать. А это почти вся интеллектуальная деятельность. Они тренируются на всём, вообще на всём, что делают люди, я не вижу ни одной области, где бы эти трансформеры не были применимы. И это не какие-то дополнительные инструменты, облегчающие работу - это полные, законченные решения, выполняющие весь цикл работ, от постановки задачи до подготовки к публикации. Да, они лажают, да, иногда грубо ошибаются, сам ОП-сектант это признает. Но они быстро учатся, и эта проблема решается - опять же, по словам ОПа - простым маштабированием. Разница между GPT-3 и GPT-4 - как между двигателем от BMW и двигателем от Камаза. И уж если GPT-3 пишет, как среднестатистический быдлокодер, то GPT-4, наверно, сможет имитировать работу всего ИТ отдела целиком.

И это только языковые трансформеры, и только GPT. Совместить ее со Stable Diffusion, с 3D AI и другими узкоспециализированными моделями - и будет автоматизирована вообще вся интеллектуальная деятельность. Всё, что не связано с работой руками (но и до этого, я думаю, недалеко).



thumbnail of 2022-12-01 02.34.30.jpg
thumbnail of 2022-12-01 02.34.30.jpg
2022-12-01 02.34.30 jpg
(71.66 KB, 768x768)
thumbnail of 42e7dddf-9889-48b0-bbed-9c673ef99f2a_794x993.jpg
thumbnail of 42e7dddf-9889-48b0-bbed-9c673ef99f2a_794x993.jpg
42e7dddf-9889-4... jpg
(216.82 KB, 794x993)
thumbnail of 6bdcf404-48ec-4be4-b273-93684316e753_586x586.jpg
thumbnail of 6bdcf404-48ec-4be4-b273-93684316e753_586x586.jpg
6bdcf404-48ec-4be4-b2... jpg
(69.79 KB, 586x586)
thumbnail of Screenshot 2022-12-09 at 18.57.24.png
thumbnail of Screenshot 2022-12-09 at 18.57.24.png
Screenshot 2022-12-09... png
(567.09 KB, 2034x1708)
thumbnail of Screenshot 2022-12-09 at 20.46.01.png
thumbnail of Screenshot 2022-12-09 at 20.46.01.png
Screenshot... png
(530.51 KB, 1238x1608)
 >>/1290/
Тебе это всё ещё кажется семёнством? Кальсон вот ровно настолько тупой и есть. Да, такие люди существуют. Люди же не нейросети, чтобы постоянно учиться и совершенствоваться – наоборот, мы стареем, тупеем, прогрессируют наши болезни, а не сильные стороны. Это не семёнство, не заговор жидомасонов, не пиар, не обман чтобы набрать классы. Это живой пример горделивого недочеловечка, который до последнего будет отрицать, что неправ. Из-за таких, как он, мы встречаем сингулярность со спущенными штанами.

 >>/1291/
Анон забыл добавить bad_prompt.pt в негативы. 
Кроме пальцев, тебя ничего не смущает? 

 >>/1297/
Есть *шанс*, что эти методы – в смысле, конкретно большие предобученные языковые модели на трансформерах – выйдут на плато чуть ниже внимательно работающего профессионала. Всё же они интерполируют между закономерностями в датасете, а не имеют общий постоянно активный сверхинтеллект, чтобы иногда поларпить дебила. Они обучались на людях, а люди делают ошибки, срезают углы, плохо понимают, что от них требуется. Да, пока выглядит, что итерациями и промпт-инжинирингом это можно преодолевать, заставляяя модель имитировать качественное мышление. Но насколько эластичны границы этого метода, особенно для уровней, для которых по определению очень мало сэмплов, потому что таких людей просто мало? Когда мы будем пытаться выжать из ИИ 95-й процентиль, 99-й, 99.9-й, насколько чаще будет лопаться мыльный пузырь симулируемого глубокого понимания контекста? Я вижу трюки, которыми это можно обойти, и конечно же путь рекурсивного улучшения датасета, но это ещё, наверное, не в GPT-4 будет.

Но я наблюдаю забавное: что секта отрицателей ИИ скатывается в довольно дикую мизантропию, как только начинает чувствовать, что для рядового хомосапого заменитель кажется вполне идентичен натуральному. 

>  Совместить ее со Stable Diffusion, с 3D AI и другими узкоспециализированными моделями
Говорят, к GPT-4 будет приделан Flow для синтеза и понимания картинок в контексте.

 >>/1298/
>  Также семьи начинают залезать в долги, компенсируя нехватку «отобранных» роботами средств заимствованиями (+10 %). Наконец, автоматизация снижает число детей в семье на 1,2 % и заставляет больше тратить на уже имеющихся в семье детей. На образование начинает идти больше (+10 %) и больше идёт на внеклассное обучение (+24 %).
Ебанутые. Интересно, эта крысиная гонка вообще работает или они просто в отчаянии?

 >>/1304/
> мы стареем, тупеем, прогрессируют наши болезни, а не сильные стороны.
> Это не семёнство, не заговор жидомасонов, не пиар
Пациент по кличке "жидошиз" уже излечился от мании еврейского заговора? А вы говорите, лечение галоперидолом устарело!
> Galactica was introduced as a large-scale language model for science that could "summarize academic literature, solve math problems, generate Wiki articles, write scientific code, annotate molecules and proteins, and more".
> Soon after the launch, Galactica seemed to be garnering negative reviews. Turns out, that the bot was generating fake research. Twitter users began sharing some hilarious made-up posts such as one about the Stanford Gaydar AI that was supposedly worked on in secret to create software that could analyse human faces to tell if they were gay or straight.
> Then there was one about "the benefits of eating crushed glass".
Однако, имеют место опасения: а не начнет ли сектант, получив очередное откровение от своего божка, жрать битое стекло?

thumbnail of 1668186961251704.jpg
thumbnail of 1668186961251704.jpg
1668186961251704 jpg
(70.13 KB, 800x720)
 >>/1306/
Кальсон, три вопроса, в интересах науки.

1. Ты можешь пояснить, что означает слово "секретная" вот здесь  >>/1286/, в контексте обсуждения ChatGPT и дальнейших моделей OpenAI? 
2. Как ты воспринимаешь эту историю –  >>/1251/ – как "откровение божка", кальсоны, новость про Galactica, Теранос, Эла Гора и зелёную энергетику, фотографию кучи битого стекла, что-то ещё? 
3. Как ты думаешь, твоя склонность к галлюцинированию бредового контента выражена больше или меньше, чем у Galactica?


 >>/1297/
>  Но они быстро учатся, и эта проблема решается - опять же, по словам ОПа - простым маштабированием.
Да даже если какой-то затык случиться, можно будет какую-нибудь специализированную нейросеть натравить, чтобы решение искала. Или у нее самой же и спросить (в gptchat), лол.

 >>/1297/
Ожидание: ИИ берет на себя рутинную работу, освобождая человека для более сложных и интересных задач.

Реальность: ИИ берет на себя всю работу, хобби, смысл жизни, небо и даже Аллаха.


 >>/1297/
>  будет автоматизирована вообще вся интеллектуальная деятельность
И это прекрасно! Человек сбросит, наконец, оковы своего жалкого обезьяньего мозга и устремится к звездам подлинных значений и смыслов. Он отбросит всё несущественное в GPT-чат и оставит лишь неотъемлемую часть нашей сущности; то, что принципиально не экстернализуется - целеполагание. Ты можешь спросить у чата, как завязывать галстук, но он не скажет, что тебе с этим делать и зачем. Ты не можешь натренировать специальную нейросеть для этого, не можешь выдрессировать отвечать на этот вопрос ни своего сраного кота, ни циркового шимпанзе, даже другой человек не поставит перед тобой цели, подлинно соответствующие твоему духовному состоянию. Даже библейский бог отказался от этой задачи, оставив Адаму приобретенную им греховным путем свободу воли.

Если на пути к Олимпу можно отбросить аж целый класс деятельности, то почему бы не облегчить себе ношу? Полная, ничем не ограниченная свобода воли и самовыражения - разве не к этому стремилось человечество на протяжении всего своего существования?

 >>/1327/
https://old.reddit.com/r/intj/comments/zdpdk3/the_purpose_of_life_according_to_chatgpt/
Что ты несешь? Целеполагание - это что, не интеллектуальная деятельность? И кто тебе сказал, что GPT не научится уже не научился ставить глобальные цели? Он ведь тренировался в том числе и на философских трактаках, в которых вопрос смысла жизни разжеван вдоль и поперек. GPT-3 еще пока отвечает фразами из педивикии, но GPT-4 - максимум, GPT-5 - мне кажется, после достаточно долгого диалога сможет точно указывать, что тебе делать, учитывая твои предпочтения и твое мировоззрение. И ты радостно побежишь исполнять его указания - "Да! Это то, чего я всегда хотел! Просто не мог сформулировать!" - и прибежишь за добавкой.

 >>/1296/
А мне за них стало страшно: им же достаточно будет научиться внятно писать говорить представлять образы, и Neuralink ответит на любой вопрос, передавая ответ прямо в мозг. Они даже в игры не смогут играть, будут спрашивать: "Пройди мне вот этого босса, он заебал". Прохождение на Ютубе 2.0, лол. Neuralink с нейросеткой в облаке будут вообще все базовые потребности удовлетворять, включая социальные ("напиши любовное письмо машке из 5б").

Черт, да там весь неокортекс атрофируется за ненадобностью. Это будут ебаные зомби, способные только жрать, трахатся и засирать Wi-Fi через Neuralink.

P.S. При условии, что наше поколение в поиске работы не тиснет ядрен батон.



thumbnail of Screenshot 2022-12-11 at 19.21.42.png
thumbnail of Screenshot 2022-12-11 at 19.21.42.png
Screenshot 2022-12-11... png
(649.78 KB, 1648x1636)
thumbnail of 2022-12-03 20.26.54.jpg
thumbnail of 2022-12-03 20.26.54.jpg
2022-12-03... jpg
(104.3 KB, 591x1280)
Тут прикол ещё в том, что творческие хобби имеют более низкий стандарт качества. Даже код для индюшатни можно писать более грязный и багованный, чем для бэкэнда сервисов FAANG, а уж рисунки-стишки-фанфики и подавно ценятся больше за новизну и обилие завлекательного контента, нежели за отсутствие ошибок. Возможно, захват генеративными моделями этих ниш побудит людей соревноваться в чём-то более интересном и требовательном, например демосцене.

Но я бы не рассчитывал. Как уже сказал анон, и как очевидно любому, кто думал об этом дольше нескольких минут, нейросети несложно применять к итеративному исправлению собственной выдачи и выдачи других сетей (как ESRGAN может апскейлить и править лица в выдаче Stable Diffusion, хотя последнее всё менее востребованно). Строишь нечеловеческую многоножку, сопрягаешь её в кольцо опричное, и вот тебе генератор идеала. Этого ещё нет. Ну, кроме набросков. 
https://threadreaderapp.com/thread/1601746273719447552.html

Но это очень просто делается. Уже несколько моих друзей накостылили в личные IDE итеративные корректоры на основе OpenAI.

 >>/1334/
Если отмахнуться от очевидного бреда, он несёт, что сетка всё равно не имеет собственных целей, токен-предикторам ничего не надо, и тем более не надо ничего в контексте твоей жизни. Кто-то должен её промптить. Да, она может сказать не только как завязывать галстук, но и зачем (и я подозреваю, что с этим она справится лучше), но ей самой безразлично, на какие вопросы отвечать, это пассивный оракул. 

Разумеется, это не техническое ограничение, а скорее политическое. 

К сожалению, почти все мы – рабочий класс, те, кого промптят на выполнение задачи менеджерки, и компенсацией за выполненные задания исчерпывается наше право на кислород и на вычислительные ноды. Так что – на завод, Вас... ах, да. Очень жаль. 

>  Черт, да там весь неокортекс атрофируется за ненадобностью. Это будут ебаные зомби, способные только жрать, трахатся и засирать Wi-Fi через Neuralink.

был давным-давно такой рассказ у Сискинда. 
http://web.archive.org/web/20121008025245/http://squid314.livejournal.com/332946.html

Добрая машина перевела. Я мог бы перевести лучше машины – пока что. Немного. Но лучше бы я потрачу 20-40 минут на что-то другое.Т Так и живём. 
https://pastebin.com/2A0fMfi3

 >>/1340/
Вот такой спам они тоже порешают. Будет лютая дрянь, такая, что хрен поймёшь не только авторство, но и к чему тебя подталкивают.

thumbnail of Screenshot_2022-12-11_19-52-36.png
thumbnail of Screenshot_2022-12-11_19-52-36.png
Screenshot_2022-12-11... png
(72.56 KB, 1747x258)
Есть вероятность, что все "прорывные" результаты, собранные выше красивые заголовки, являются продуктом грызни за индексы и гранты в академической/стартаперской среде - то есть просто корчевателями и очередным новым "блокчейном".

 >>/1297/
>  Они тренируются на всём, вообще на всём, что делают люди
>  это полные, законченные решения, выполняющие весь цикл работ, от постановки задачи до подготовки к публикации. 
>  GPT-4, наверно, сможет имитировать работу всего ИТ отдела целиком.
>  и будет автоматизирована вообще вся интеллектуальная деятельность
Маркетоидные реляции и идеализация под влиянием "peak of inflated expectations". Пока что контент от сеток весь такой себе.

 >>/1286/
Да, заходишь на metaphor.systems а там... статические черри-пикед предзаполненные примеры под выпадашками. Лол! "У нас есть супер нейрогугл, но мы вам не покажем...".


thumbnail of Screenshot 2022-12-11 at 20.45.16.png
thumbnail of Screenshot 2022-12-11 at 20.45.16.png
Screenshot 2022-12-11... png
(60.11 KB, 1186x532)
Так выглядит старческая ригидность вкупе с патологиями мышления: Кальсоненко будет продолжать кудахтать про "корчеватель", "блохчейн" и "теранос", даже когда языковая модель будет генерировать схему его лечения. А лечение необходимо, и срочно: ещё год назад он мог листать научные статьи и выдавать (не относящиеся к предмету разговора, правда) ссылки; полгода назад он мог пользоваться веб-интерфейсами с одной кнопкой. А теперь и эта способность деградировала и он вынужден только полагаться на уверенные заявления нонеймов на бумерских форумах.  Он функционально ослеп. 

>  Да, заходишь на metaphor.systems а там... статические черри-пикед предзаполненные примеры под выпадашками. Лол! "У нас есть супер нейрогугл, но мы вам не покажем...".  

Господа, обратите внимание на уверенный тон. 
Разумеется, в metaphor.systems есть *примеры* запросов. Но это полноценный поисковый движок. Однако нашему прожжённому нейроскептику, разоблачающему маркетоидные реляции, это не видно.  

Кальсоненко, ты можешь сосредоточиться на том, что я сейчас скажу? Ты болен. Я не шучу, это не зеркалочка твоего юродства про жидошизу. У тебя тяжёлое расстройство мозга, что уже выражается не как обычное игнорирование моих аргументов и додумывание их до бреда, а как неглект больших участков поля зрения. Ты такими темпами сдохнешь нахуй. ПИЗДУЙ К ВРАЧУ ПОКА МОЖЕШЬ, ДУРАК.

thumbnail of Screenshot_2022-12-11_22-22-47.png
thumbnail of Screenshot_2022-12-11_22-22-47.png
Screenshot_2022-12-11... png
(71.16 KB, 1550x217)
 >>/1349/
Ты проспонсируешь проезд, проживание и лечение, побудешь заботливым опекуном в чужой стране, привезешь и заберешь?
В какую страну цивилизованного мира нам дадут визу? Поехали!


 >>/1352/
Будь у меня другое отношение к кальсону, может и да. А так – моё великодушие кончается на помощи ему в понимании тяжести его положения.

 >>/1353/
Я не постмодернист. Мир не есть текст, хотя из корреляций внутри очень большого объёма текста можно извлечь немалую долю значимых для людей свойств мира. 

Важно, что если бы кальсон сам тестировал эти модели, то у него не было бы отмазки про черрипикинг. Или наоборот, он мог бы обоснованно утверждать про черрипикинг. Когда видишь чужой контент, очень просто сказать, что он нарисован или это 1 из 1000 гача-роллов.

 >>/1313/
> в интересах науки.
Самонадеянно для одержимого нейросетевой обсцессией пациента.
> 1. Ты можешь пояснить, что означает слово "секретная" вот здесь  >>/1286/, в контексте обсуждения ChatGPT и дальнейших моделей OpenAI?
Казалось бы, прямо в посте процитирован текст, на который этот пост является ответом. Но увы, нейросетевой инглип велел говорить только о чатботах.
Инглип повелевает есть битое стекло. Скорее, батенька, нужно поторопиться!
> Как ты воспринимаешь эту историю –  >>/1251/ 
Как банальный фанфик яойщицы^W нейросетевого сектанта на заданную тему.
 >>/1317/
Реальность: про ИИ забывают еще на десять лет, так и не научив его рисовать пальцы.

Охуеть, нейрошизик до сих пор бесится. Я думал, вы на Доброчане уже все обсудили.

Зашел сказать, что последнее время общаюсь исключительно в ChatGPT. Кожаные мешки больше не нужны.

Расстраивает только, что почти вся научная фантастика превратилась в тыкву, особенно твердая.

Тред не читал.

 >>/1355/
Что ты извлечешь из архива журнала Космополитан, газеты Комсомольская Правда, Абсурдопедии и Лурки? Хорошее будет обучение?
Ты уверен что текст описывает мир. Но он не описывает наш мир. Это крайне плохой рассказ и цели его авторов всегда другие. А ещё этого МАЛО. Крайне мало. Мир всегда больше оцифрованного текста.
Весь вау-эффект от очередной антропоморфизации. ГПТ много прочитал, он умный, решает школьные задачки. Электронный идиот останется идиотом. Смоделированный идиот поднимет цивилизацию на новую вершину? Хех.

 >>/1373/
К слову текст или формулы не описывают мир в принципе, ибо это инструменты банальной Каббалы, формализованных Моделей реальности [то есть когда жрецы семитов убежали из Египта после Катастрофы и, забыв Устную Традицию и коренной Лор, стали рисовать инфографику и определения-заклинания, по итогам ёбнувшись на солнце].
Современный человек не знает о настоящем мире Ничего. Разумеется нейросеть тоже, ибо просто слоённый пирог из переменных и формул на чиповой алгебре. 
То есть все эти технологии просто курам на смех.

thumbnail of 3ab10a75-a29a-44ac-8fc3-7baa26ed20fa_792x944.jpg
thumbnail of 3ab10a75-a29a-44ac-8fc3-7baa26ed20fa_792x944.jpg
3ab10a75-a29a-44... jpg
(155.76 KB, 792x944)
thumbnail of image1.png
thumbnail of image1.png
image1 png
(375.52 KB, 1999x548)
thumbnail of page1.jpg
thumbnail of page1.jpg
page1 jpg
(837.63 KB, 2770x1913)
thumbnail of Fj5wr-5XkAEit9H.jpeg
thumbnail of Fj5wr-5XkAEit9H.jpeg
Fj5wr-5XkAEi... jpeg
(211.02 KB, 784x1124)
 >>/1364/
>  врёёёти
Ожидаемо.
>  Реальность: про ИИ забывают еще на десять лет, так и не научив его рисовать пальцы.  
О да, пальцы непреодолимы. 
The banker took him to a window. “Look,” he said pointing to the street. “You see all those people on their bicycles riding along the boulevard? There is not as many as there was a year ago. The novelty is wearing off; they are losing interest. That’s just the way it will be with automobiles. People will get the fever; and later they will throw them away. My advice is not to buy the stock. You might make money for a year or two, but in the end you would lose everything you put in. The horse is here to stay, but the automobile is only a novelty — a fad.”

For milk and kindred deliveries the automobile is a poor substitute for the horse. For long hauls on good pavement with light or heavy loads the gas wagon has already superseded the horse, though not by reason of its greater economy of operation. For short hauls or trips in which many stops must be made the gas wagon can never displace the horse.

Этот тип идиотизма неизменен из века в век. Некоторые люди обучаются стоять на своём и принципиально избегать ознакомления с subject matter, ограничиваясь чисто риторическим обоссыванием оппонентов. Это даёт им некоторое конкурентное преимущество в пацанских разборках, а потом хоронит.  

Кстати, ты там так и не нашёл, как в metaphor вводить произвольные запросы? Или ты немножко кончаешь в штаны от мысли о том, как круто выглядит твой отказ от способности найти кнопку на веб-странице? 

Или я таки прав, что тебе нужно спешить к врачу? 

 >>/1373/
Common Crawl содержит не три с половиной журнала, а в разы больший объём разнообразной информации, чем видит человек за всю жизнь, даже если говорить не только о тексте. 
>  Мир всегда больше оцифрованного текста.
Но мозг даже самого умного человека – это не мир и не репрезентация мира, а всего пара литров киселя. 
>  Весь вау-эффект от очередной антропоморфизации. ГПТ много прочитал, он умный, решает школьные задачки. Электронный идиот останется идиотом. Смоделированный идиот поднимет цивилизацию на новую вершину? Хех.  
Бессвязное самоуверенное шизобормотание. GPT может бормотать лучше. Отними у тебя бормотание и что останется? 
Как справедливо замечает  >>/1365/, кожаные мешки не нужны.

 >>/1405/
Ох уж эти семиты.

Но по крайней мере нейросеть знает системы нумерологии и герменевтики помимо иудейских.

thumbnail of Screenshot 2022-12-14 at 23.42.20.png
thumbnail of Screenshot 2022-12-14 at 23.42.20.png
Screenshot 2022-12-14... png
(497.06 KB, 1682x1548)
thumbnail of Screenshot 2022-12-14 at 23.42.45.png
thumbnail of Screenshot 2022-12-14 at 23.42.45.png
Screenshot 2022-12-14... png
(342.75 KB, 1972x1132)
thumbnail of Screenshot 2022-12-14 at 23.43.52.png
thumbnail of Screenshot 2022-12-14 at 23.43.52.png
Screenshot 2022-12-14... png
(359.71 KB, 1496x1088)
Роботы
Трансформеров, видимо, хватит и для управления роботами. Новая модель гугла хорошо понимает естественный язык и новые среды, знает 700 разных задач. Для управляемого так робота не составит проблемы, например, в новой кухне протереть стол по команде "возьми тряпку и приберись".  (как я уже сообщал в  >>/1222/, whisper V2 имеет высокий человеческий уровень распознавания речи, так что можно всё делать локально в реальном времени). 
https://robotics-transformer.github.io
 https://allenai.org/project/phone2proc/home  от Института Аллена – дешёвое и эффективное дообучение модели среды на основе обычной записи с айфона. Устойчиво к дальнейшим изменениям вроде перестановок мебели или прихода/ухода людей.
https://video-dex.github.io – Карнеги-Меллон. Обучение поведения роботов на массиве человеческих видеозаписей. 

Фундаментальное
https://arxiv.org/abs/2212.04089 – арифметика файнтюнинга. Можно просто дообучить модель на N задачах, представить дообученные модели как векторы, добавить их к базовой модели и её успешность в выполнении каждой из этих задач повысится почти до того уровня, что может соответствующая специализированная модель. Типичный аниме-троп, ничего нового. 
https://arxiv.org/abs/2212.04458
Универсальное обучение в контексте посредством мета-обучающихся трансформеров, Гугл. Вероятно будет очень важной вехой, во всяком случае Сол-Дикштейн на это опять надеется.
"Современное машинное обучение требует, чтобы разработчики систем определяли аспекты конвейера обучения, такие как лосс, архитектуры и оптимизаторы… Одна из особенно амбициозных целей мета-обучения - обучение алгоритмов контекстного обучения общего назначения с нуля, используя только модели "черного ящика" с минимальным индуктивным биасом. В этой статье мы показываем, что трансформеры и другие модели "черного ящика" могут быть мета-обучены для работы в качестве внутриконтекстно обучающихся моделей общего назначения. Мы характеризуем фазовые переходы между алгоритмами, которые обобщают, алгоритмами, которые запоминают, и алгоритмами, которые вообще не поддаются мета-обучению, вызванные изменениями в размере модели, количестве задач и мета-оптимизации. "

https://www.cs.toronto.edu/~hinton/FFA13.pdf – Forward-Forward Algorithm, Хинтон, гугл.
Если это выгорит, то мы сможем избавиться от backprop, получить почти бесплатное масштабирование сетей, лёгкую параллелизацию, быстрое обучение, категорически упростятся архитектуры и вообще всё, исчезнет нужда в дифференциируемости модели. Это будет прорыв уровня… самого по себе глубокого обучения. 

Images
https://github.com/zsyOAOA/DifFace – вероятно лучший опенсорсный восстановитель фотографий.
https://huggingface.co/spaces/ysharma/Low-rank-Adaptation – эффективный, более быстрый, точный файнтюн stable diffusion, сжимающий изменения в 6 мегабайт вместо 2+ Гб. 
https://github.com/weixi-feng/Structured-Diffusion-Guidance – простейший трюк добавляет stable diffusion понимание композиции сцены. 
https://arxiv.org/abs/2212.05221 – очередная retrieval-augmented модель с внешней мультимодальной памятью. 
https://github.com/frozoul/4K-NeRF – нейронные поля излучения в 4К, по сути самый простой путь создания 3Д-репрезентаций реальных объектов из набора статических изображений. 

По видео, 3Д и проч. уже скучно.


 >>/1417/
>  Прям на прохождение кофе-теста надешься?
Не в этом поколении. Оно уже может *попытаться*, и вероятно преуспеет в поиске ингридиентов и планировании части сложных шагов, но наверняка облажается с механическим исполнением. Если посмотреть на видео, эти роботы коряво двигаются (да они и сделаны из мусора и вдобавок у них только одна рука). Это пруф концепции обучения. Нужна ещё одна итерация, может две. То есть пока думаю, что 2024-й. И возможно, что первыми будут не Everyday Robots, а Halodi https://www.halodi.com или Тесла, или кто-то ещё менее заметный. 
 
Я склоняюсь к тому, что проблема с манипуляторами чисто экономическая. Хорошие (сверхчеловечески хорошие, вообще говоря) тактильные сенсоры есть уже несколько лет, приводы есть, есть несколько разных сравнимых подходов, и с сервоприводами, и с "мускулами", и с пневматикой, и с гидравликой. Но это стоит десятки тысяч за руку. Мы могли бы делать дешёвые, точные и мощные манипуляторы, если бы имели смысл большие партии компонентов – а смысла нет, пока нет софта, который, к счастью, позволяет гораздо дешевле и быстрее вести эксперименты. Поэтому ведущие корпорации вкладывались в физически достоверные симуляции для обучения, вроде MuJoCo, в трансфер обучения на обычных изображениях (SayCan) и только недавно перешли к заметным объёмам реальных данных. Дальше дело пойдёт быстрее.

thumbnail of Screenshot 2022-12-15 at 02.30.22.png
thumbnail of Screenshot 2022-12-15 at 02.30.22.png
Screenshot 2022-12-15... png
(578.02 KB, 1980x1090)
 >>/1418/
Сопровождающее видео к RT-1
https://youtube.com/watch?v=UuKAp9a6wMs

Ещё один влажный фанфик от нейрошиза, какой же я вездесущий, пиздец просто. ChatGPT опять используется как автокомплит на суперстероидах и по-быстрому пишет целое приложение и консультирует юзера. Уверен, всё это видео заскриптовано что твой кинематик на анриле. (нет)
https://youtube.com/watch?v=Pi-5_eid7VA

Исторические аналогии, для нашего любителя дурацких аналогий
https://dynomight.substack.com/p/llms

Lexica Aperture стала доступна, ПАЛЬЦЫ по-прежнему не решены, о нет. Можно поиграть. рекомендую пользоваться негативными промптами. 
https://lexica.art/aperture

 >>/603/
Беглым взглядом можно подумать, что ОП правда сильно увлечен технопрогрессом.
Но мне не дает покоя то, что его увлеченность имеет схожие (само)уничижительные черты, что и треды про черные члены на форчонге или про дагов на оранжевом;
только здесь вскармливаются комплексы на счет кажущейся ущербности (человеческого) ума.

Кончайте это скверное предприятие! Все, кто занимался подобным прежде, становился всё более и более жалким. Это рак, Анонимус. 
Переставай акцентировать на этом своё внимание и фантазировать о превосходстве/неполноценности.
[i]покормил[/i]

 >>/1414/
> Этот тип идиотизма неизменен из века в век. 
Да, Джон ДеЛореан, кто-то даже поверил в твою машину. Да, медицинский deep state так и не дает тебе пересадить голову человека. Ну и жиды.
> Кстати, ты там так и не нашёл, как в metaphor вводить произвольные запросы? 
Кстати, больной, вы так и не поняли, что разговариваете с несколькими людьми - и продолжаете рьяно портить свои кальсоны?
 >>/1419/
Раньше твитор, теперь ютуб. В новом году пациент начнет постить пруфы в тиктоке.

 >>/1421/
Да, да, конечно. На мелкобордах есть два идиота с шутками про кальсоны и пациентов и тотальной неспособностью придумать хоть одну меткую аналогию. Так и поверил. 

Кальсоненко, мы уже обсуждали ваш симптом раздвоения личности. Он каждый раз триггерится одинаковым способом.

1. Вы морозите хуйню.
2. Я указываю вам, что это есть постыдная хуйня.
3. Вместо того, чтобы признать конфуз, вы включаете режим "обосратушки-перепрятушки", доставая куклу для чревовещания (вернее обычный вязаный носок). Удивительным образом никогда не возможно добиться ответа от *того же самого* кальсоненки, он пропадает! 

Хорошо, можете убрать носок. Спрошу вас отдельно. _Вы-то нашли_, как в metaphor вводить произвольные запросы? 

>  Раньше твитор, теперь ютуб. В новом году пациент начнет постить пруфы в тиктоке

Однако новый год ещё не наступил, а статья по DeepNash в Science уже вышла, возможность чего вы, брызгая слюной и другими жидкостями, отрицали не далее как этим летом.
 
У вас будут какие-то замечания на этот счёт, кроме того, что мы с вами не поспорили на 200 (или 100?) долларов? Или вам комфортнее это обсуждать при помощи говорящего носка?

thumbnail of media_Fhx2cEZVQAAT69K.jpg
thumbnail of media_Fhx2cEZVQAAT69K.jpg
media_Fhx2... jpg
(225.26 KB, 770x1225)
 >>/1423/
> На мелкобордах есть два идиота
Нет, батенька, вы у нас уникальный случай.
> 1. Вы морозите хуйню.
> 2. Я указываю вам, что это есть постыдная хуйня.
Вам, больной, уже столько раз пытались объяснить, что констатация вашей смехотворной обсцессии - не хуйня, а ваше виляние грязным филеем не является указанием чего-либо помимо ваших симптомов. Но, как говорят о вас медбратья, что per rectum, что по ягодицам.
> Спрошу вас отдельно. _Вы-то нашли_, как в metaphor вводить произвольные запросы?
Даже не пробовал ни разу. Но если вы настаиваете, можно попробовать. Как только вы перестанете вилять грязными кальсонами и расскажете нам о пользе битого стекла.
> статья по DeepNash в Science
Приносите pdf - посмеемся. Примерно как над вашими изумительными попытками сначала поспорить на деньги, а затем жалобно соскочить.

 >>/1430/
>  Даже не пробовал ни разу. Но если вы настаиваете
>  Приносите pdf - посмеемся. 
Кальсон, я спрашивал уже раз сто, наверное, но в чём смысл этого беспомощного копротивления? Кого ты пытаешься убедить, засовывая себе бананы в уши? Когда ты лез в залупу, требуя именно АДНАКНОПОЧНЫЙ интерфейс ИНАЧЕ НИСЧИТАЕТСЯ – было то же самое. Теперь тебе сделали и однокнопочные интерфейсы, но ты прячешься за выдуманным братом-близнецом и каким-то кротовушным юморком про стекло. 

>  Примерно как над вашими изумительными попытками сначала поспорить на деньги, а затем жалобно соскочить.
Разумеется, теперь мы не узнаем, стал бы ты платить, или съехал бы на недоступность крипты и однокнопочных веб-кошельков, как в абсолютно всех остальных случаях. 
Но судя по хуцпе, моя интуиция меня не подвела. Статья вышла. И вместо того, чтобы сказать "спасибо дяденька, что не стали грабить меня, дурачка-скептика", ты пытаешься переиграть это в перемогу. 

Ты действительно не осознаёшь, как это тупое отчаянное упрямство выглядит?

 >>/1432/
> я спрашивал уже раз сто, наверное, но в чём смысл этого беспомощного копротивления?
Действительно, больной, зачем вы это делаете? Является ли это результатом употребления битого стекла?
> Теперь тебе сделали и однокнопочные интерфейсы, но ты прячешься за выдуманным братом-близнецом
Сколько пациенту не говори, что земля круглая, а он все про кита, трех слонов и выдуманных близнецов.
Но долг врача - помогать даже таким, безнадежным и покрытым фекалиями пациентам. Итак, на сайте какие-то шаблоны уровня if-then-else, либо регистрация через, прости Гиппократ, дискорд. То ли это, что подразумевал ваш танец Неиссякающего Сфинктера?
> каким-то кротовушным юморком про стекло.
Побойтесь Нейрогоспода, батенька! Вы смеете сомневаться в великих Нейросетях от апостола Цукерберга?
> Спорю на деньги!
> @
> Не могу настроить кошелек, да зачем это все, что-то я сегодня встал не с той ноги
> @
> спасибо дяденька, что не стали грабить меня, дурачка-скептика
Больной, ваше виляние испорченными кальсонами было интересно первые сотню раз. Разучили бы вы новые танцевальные движения, что ли.

 >>/1436/
> либо регистрация через, прости Гиппократ, дискорд
Да. Так в чём твоя проблема, говно? 

>  ваше виляние испорченными кальсонами
Ты готов был поставить деньги на то, что статья не выйдет? Да или нет?

thumbnail of Screenshot_2022-12-15_04-51-03.png
thumbnail of Screenshot_2022-12-15_04-51-03.png
Screenshot_2022-12-15... png
(85.52 KB, 978x418)
thumbnail of Screenshot_2022-12-15_04-39-57.png
thumbnail of Screenshot_2022-12-15_04-39-57.png
Screenshot_2022-12-15... png
(25.02 KB, 818x89)
thumbnail of Screenshot_2022-12-15_04-37-41.png
thumbnail of Screenshot_2022-12-15_04-37-41.png
Screenshot_2022-12-15... png
(64.37 KB, 984x317)
Сначала они прикрепили меточки к картинкам. Алгоритм радостно выдал меточки назад. Они радуются как дети.
Дальше они влили в него галерею картинок. Алгоритм начал выдавать смесь из них. Радуются как дети: оно рисует! Человеку больше ничего не нужно рисовать, всё уже нарисовано до нас!
Потом они скормили алгоритму несколько паст и стековерфлоу. Алгоритм начал выдавать тупую смесь из этого назад. Радуются как дети. "Интеллект!"

Именно твое восхищение GPT и остальным это самое странное что тут есть. Тебя отfoolила машина заставив её антропоморфизировать. Потом отfoolил простой хайп и подделанные публикации ради грантов и индексов.

Весь порог нейронок - помочь найти похожую картинку в огромной галерее.

 >>/1485/
Я запрещаю вам радоваться или что?

На том же хабре видел и положительные отзывы о ChatGPT. Алсо если ты ещё раз перечитаешь те комментарии, которые ты запостил, отбросив предвзятость и посмотрев на это с другой стороны, то поймёшь и увидишь, что чатбот в описываемых случаях как раз-таки очень хорошо пародирует реального человека (но не типично-мемного гик-сноба с реддита/хабра)

 >>/1437/
> Да. Так в чём твоя проблема?
Очевидно, в регистрации.
> говно, потекло говно!
Ну вот, больной испортил очередные кальсоны. Батенька, вы банальны.
> Ты готов был поставить деньги на то, что статья не выйдет?
Да, пациент, но к этому дойти не успело - вы испугались, и, испортив с десяток свеженьких кальсон, замылили тему.
 >>/1486/
> На том же хабре видел и положительные отзывы о ChatGPT.
Везде есть дурачки, иначе как бы основатели сект стригли купоны с психически неустойчивых пациентов?

 >>/1492/
Какая секта, какие донаты, ты что несёшь вообще? Как раз-таки сейчас жадные художники с дорогими коммишеннами и авторы нископробной литературы грызут ногти сильнее всего, потому что люди нашли способ не платить за то, что можно сгенерировать за пару минут и теперь им стричь деньги не получится.

 >>/1493/
> Какая секта, какие донаты
Действительно, какие донаты?
Впрочем, что взять с попавшего в секту пациента, радостно помогающего стричь гранты на хайпе и впаривать буратинам очередной блокчейннфт^W ИИ-стартап.
> Как раз-таки сейчас жадные художники с дорогими коммишеннами и авторы нископробной литературы грызут ногти сильнее всего
Так вы, батенька, говорите, что Бэнкси и Донцова уже устроились официантами на подработку?

 >>/1500/
>  Впрочем, что взять с попавшего в секту пациента, радостно помогающего стричь гранты на хайпе и впаривать буратинам очередной блокчейннфт^W ИИ-стартап.
Это ты про кого сейчас?
>  Так вы, батенька, говорите, что Бэнкси и Донцова уже устроились официантами на подработку?
Пока нет, но уже готовятся, подыскивают черную работу активно.

 >>/1485/
Ты осознаёшь, как жалко смотрятся скриншотики пренебрежительных комментариев каких-то нонеймов вкупе с максимально тупой и неверной характеристикой работы модели? Ты, как и кальсон, будто боишься смотреть на Солнце. 

>  смесь

For sanity's sake, ты можешь сказать, какой момент распределения ты подразумеваешь? Потому что буквально *среднее* картинок – это сероватый блоб, *среднее* текстов – поток символьного шума. 

>  Именно твое восхищение GPT и остальным это самое странное что тут есть. Тебя отfoolила машина заставив её антропоморфизировать. Потом отfoolил простой хайп и подделанные публикации ради грантов и индексов.

Ты подаёшь это с позиции прошаренного, утомлённого хайпом и буллщитом технаря. Но ведь это просто поза. Ты вынужден использовать в качестве своих источников комментарии полулюдей на хабре, джихад маркуса, не написавшего ни единого алгоритма в жизни, и доводы кальсона ИТТ, но никогда не обращаешься к первичным источникам. 
Если ты не можешь оценить первоисточники и ищешь, кому поверить на слово – почему ты веришь какому-то скаму больше, чем условному Беллару или Кармаку?

 >>/1503/
>  как жалко смотрятся скриншотики 
Но ты тоже постишь скриншоты! И иногда с коментариями твиттерных о чем-нибудь.
>  пренебрежительных комментариев каких-то нонеймов
>  комментарии полулюдей на хабре
Полулюди - на сосаче.
>  с максимально тупой и неверной характеристикой
Прям-таки неверной? А ты посмотри в общем и со стороны. Разве оно не смешивает известные детали? И поэтому в аниме картинках, например, лимитировано определенным стилем. Если других моделек не намешать - чуда не будет.

>  *среднее* текстов – поток символьного шума
Не глупи. Ещё марковские боты умели "ответить что-то в тему".

>  но никогда не обращаешься к первичным источникам
Консерваториев не кончали. Используем источники которые нам доступны для понимания. Ну и вообще ты ведь знаешь сколько всякого добра ежедневно публикуется в научных журнальчиках? Прорыв в аккумуляторах сколько обещали?

>  Если ты не можешь оценить первоисточники и ищешь, кому поверить на слово – почему ты веришь какому-то скаму больше, чем условному Беллару или Кармаку?
Что они писали про блокчейн и потеплизм?

Я простой потребитель. Никому не нужно доказывать, что смартфон, например, это полезная вещь. Всем это очевидно.
Но с твоими сетями пока не так. Пока нет вау. Нет волшебства. Только черри-пикед примеры. И глуповатый чатбот (какие-то снипеты кода - это никому не нужно. От софта ждут подерживаемую жизнь проекта, адаптацию, помощь, волшебную красивую кнопку опять же.).

Я вот спросил на https://amagpt3.com
Some neural networks is named like UL2-20B. What the "20B" part mean?
Оно не ответило вразумительного.

thumbnail of FOTW_1234.png
thumbnail of FOTW_1234.png
FOTW_1234 png
(118.9 KB, 820x554)
thumbnail of Screenshot 2022-12-16 at 20.22.57.png
thumbnail of Screenshot 2022-12-16 at 20.22.57.png
Screenshot 2022-12-16... png
(1.03 MB, 2472x1892)
 >>/1507/
Я пощу скриншоты архитектур, сырую выдачу моделей, и иногда замечания технически подкованных людей или людей, имеющих влияние на политический климат вокруг индустрии.

>  Разве оно не смешивает известные детали?
Нет.  Оно их рекомбинирует, и учитывает контекст, в котором эти детали встречаются, чтобы достаточно часто поддерживать диалог, выдавать рабочий код, и решать задачи, которые ни разу не встречались в исходном датасете. Если говорить про диффузионные модели, то они выучивают модальные, а не усреднённые представления объектов, соответствующих ключевым словам, и комбинирует их. Это важно.
>  Ещё марковские боты умели "ответить что-то в тему".
Марковские боты тоже не смешивают.
У людей есть какая-то иррациональная и в сущности эстетическая предвзятость против статистических методов. Между тем работа наших нейронов тоже статистическая – и этого хватает для мышления. Это не аргументы.

>  Ну и вообще ты ведь знаешь сколько всякого добра ежедневно публикуется в научных журнальчиках? Прорыв в аккумуляторах сколько обещали?
Так это кальсоний требует публикаций в рецензируемых научных журнальчиках, и хуцпит, что arxiv помойка (а теперь, когда статейки с arxiv, против которых он якобы готов был поставить деньги, проходят в Science – пытается это переиграть в очередную перемогу).

ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо. В этом и странность, что вам дают возможности для формирования собственного мнения, но вот уже рега в дискорде – непреодолимое препятствие.
Напоминает эпизоды психоневрологии с игнорированиями из Оливера Сакса.

С аккумуляторами было много прорывов, плотность за 15 лет выросла почти на порядок, цена киловатт-часа снизилась так же, число циклов увеличилось. Скорее всего Тесла доведёт до продакшена батарею с 10к циклов. И это всё обычные инженерные танцы вокруг литий-ионных ячеек, а не хайповые нанойоба-смены парадигмы. Аналогия с трансформерами очевидна.
https://www.energy.gov/eere/vehicles/articles/fotw-1234-april-18-2022-volumetric-energy-density-lithium-ion-batteries
https://www.statista.com/statistics/883118/global-lithium-ion-battery-pack-costs/

>  Что они писали про блокчейн и потеплизм?
Не знаю. Они известны кодом, а не словоблудием. И то, что они запрыгнули в разработку нейросетей, особо забавно, учитывая местные дилетантские разговоры про "неэффективный питон" (как будто не ясно, что питон – лучший язык для *прототипирования*). 

>  От софта ждут подерживаемую жизнь проекта, адаптацию, помощь, волшебную красивую кнопку опять же

Окей. Представь, что нейросеть пишет тебе по запросу не сниппет кода, а большой проект на 500к строк. И он компилируется и работает.
Что дальше? Вот ты великодушно, по-барски сказал "окей, вау".
Теперь можешь задуматься о том, какие работы остаются людям?
Интеллект – это в том числе способность просчитывать последствия. Этим условием ты оставляешь себе ровно одно вау перед тем, как встать к стенке. 

>  Some neural networks is named like UL2-20B. What the "20B" part mean?

Are named, what does mean. Но ладно. Я спросил ChatGPT, она  осмысленно написала мне ряд гипотез, начав c верной. Попроси у знакомого хохла логин, если хочешь скрины. 

Для меня это достаточно вау. Особенно учитывая, что в её тренинге не было ничего про UL2-20B.

К вопросу зрелых бенчмарков. Очередной блокчейннфт^W ИИ-стартап "Google" выпустил бенчмарк для сравнения диффузионных редакторов, и как водится свой редактор, незатейливо названный Imagen Editor. Это ускорит порешание такого артефакта тёмных веков, как Photoshop. 
https://arxiv.org/pdf/2212.06909.pdf
https://imagen.research.google/editor/ (пока неактивно)
>  To improve qualitative and quantitative evaluation, we introduce EditBench, a systematic benchmark for text-guided image inpainting. EditBench evaluates inpainting edits on natural and generated images exploring objects, attributes, and scenes. Through extensive human evaluation on EditBench, we find that object-masking during training leads to across-the-board improvements in text-image alignment -- such that Imagen Editor is preferred over DALL-E 2 and Stable Diffusion -- and, as a cohort, these models are better at object-rendering than text-rendering, and handle material/color/size attributes better than count/shape attributes.

Специально для кальсоненки, чтобы он больше узнал о пользе поедания стекла: Stanford выпустил специализированную маленькую модель, обученную на пабмеде. 
https://huggingface.co/stanford-crfm/pubmedgpt

thumbnail of sign-language-clipart-letter-l-13.jpg
thumbnail of sign-language-clipart-letter-l-13.jpg
sign-language-clipart... jpg
(58.82 KB, 1860x1412)
Не понимаю чему вы радуетесь, долбаёбы! 
Это не искусственный Интеллект ни разу. 
Уровень говорилок типа хуяндексной Алисы и штамповки типовых картинок вроде новогодних сувениров из КНР.
Впрочем Доброчан всегда славился сказочными долбаёбами, отключающими постинг с Тора и угорающими по мочерастии, при этом гордо кукарекающими что это всё-равно Борда. 
Заходил раз пять за 10 лет сообщить что они по итогам проебутся со своим Манямирком.
Ну и что мы видим- таки на Конечной Борде. Мде!
мимопроходил

 >>/1529/
>  Не понимаю чему вы радуетесь, долбаёбы!
Тред прочитай, дурачок.
>  Впрочем Доброчан всегда славился сказочными долбаёбами, отключающими постинг с Тора и угорающими по мочерастии, при этом гордо кукарекающими что это всё-равно Борда.
Ты нормально мысль можешь выразить? Ничего непонятно. Стиль письма уровня дегенерат. Что с тобой?
>  Заходил раз пять за 10 лет сообщить что они по итогам проебутся со своим Манямирком.
Лучше сходи за таблетками, а то ты их тоже походу только раз в десять лет принимаешь.



 >>/1529/
Ох уж эти мясные, даже в поверхностное изучение материала и контекст не могут, типовые ресентимент сигналы от уязвлённой рептильной операционки.


 >>/1501/
> Это ты про кого сейчас?
Да хоть тех же прожигателей донатов из OpenAI.
> Пока нет, но уже готовятся, подыскивают черную работу активно.
Голоса в голове еще никогда не обманывали, инфа 100%.
 >>/1512/
> Я пощу скриншоты архитектур, сырую выдачу моделей
Точнее, батенька, непонятно откуда вырванные картинки с неизвестно какими данными. Мастерство владения PowerPoint у вас на уверенном уровне, могли бы работать секретаршей, если бы не портили регулярно кальсоны.
> Оно их рекомбинирует, и учитывает контекст
Да, пациент, конечно. И чертиков распугивает. Зелененьких. С красными, из другой галактики, уже не очень получается.
> а теперь, когда статейки с arxiv, против которых он якобы готов был поставить деньги, проходят в Science – пытается это переиграть в очередную перемогу
Как забавно наблюдать, как больной испугался спорить по-настоящему, а теперь вертит над головой грязные кальсоны и заявляет о своей-де победе.
> ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо.
Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
> учитывая местные дилетантские разговоры про "неэффективный питон" (как будто не ясно, что питон – лучший язык для *прототипирования*).
Лучший язык - в сертифицированном тесте недержания он набрал 7658 жидошизопойнтов, что на 1564 жидошизопойнта больше, чем JavaScript.
> Представь, что нейросеть пишет тебе по запросу не сниппет кода, а большой проект на 500к строк. 
Такой HelloWorld Enterprise Edition очень пригодится в какой-нибудь кунсткамере.


thumbnail of alex-chow-aviator-jacket-by-alex-chow.jpg
thumbnail of alex-chow-aviator-jacket-by-alex-chow.jpg
alex-chow-aviat... jpg
(128.52 KB, 900x1125)
https://bbb.livejournal.com/3903828.html
https://bbb.livejournal.com/3904054.html

А твоя нейросеть сможет найти различие в переводах последнего абзаца первой статьи Заключительного Акта Венского Конгресса?

Сможет пройти по цепочке цитирования?

Нужен не "искусственный интеллект", решающий сверхзадачи - а люди, умеющие делить в столбик
https://alex-rozoff.livejournal.com/628231.html

alex_rozoff: Что вы понимаете под "Технологической сингулярностью"? Термин-то многозначный
https://ru.wikipedia.org/wiki/Технологическая_сингулярность

snjax: Момент, когда AI общего назначения сможет самостоятельно создать более интеллектуальную версию самого себя, образуя положительную обратную связь.

alex_rozoff: Тогда этот момент откладывается до полной смены парадигмы в computer science. И даже в этом случае — никаких особых последствий такое событие иметь не будет (скорее всего вызовет лишь академический интерес)

Вот допустим (лишь допустим - вопреки известным закономерностям) кем-то создан AI общего назначения сможет самостоятельно создать более интеллектуальную версию самого себя. И что изменилось в мире? Упрощаю вопрос: допустим, появился Очень Умный Человек, который с некоторой частотой может порождать рядом с собой Еще Более Умного Человека. И что? А ничего. Это совершенно не повлияет на практическую жизнь общества.
Поясню почему.

14 апреля 2021 Самый умный человек в мире на данный момент
По оценкам института Дэвидсона, уровень IQ австралийского математика Теренса Тао достигает заоблачных 220–230. Теренс Тао — самый умный человек на планете — родился в 1975 году.
IQ американского астрофизика Криса Хираты составляет 225. Вундеркинд родился в 1982 году.
Корейский вундеркинд Ким Ун Ён родился в 1962 году. В четыре месяца он уже разговаривал, а к четырем годам владел четырьмя языками и решал сложные математические задачи. Его IQ составляет 210 баллов. Высокий показатель интеллекта Кима был занесен в Книгу рекордов Гиннесса, хотя позже такие рекорды перестали фиксировать из-за спорности точного определения уровня IQ. Известность Ким получил благодаря появлению на японском телевидении. На телешоу Fuji пятилетний вундеркинд решал интегральные и дифференциальные уравнения. В настоящее время Ким занимает достаточно заурядную должность профессора гражданского строительства в южнокорейском университете Чунгбук.
https://www.nur.kz/leisure/interesting-facts/1672336-samyy-umnyy-chelovek-v-mire-na-dannyy-mo/
Иначе говоря: эти супер-умные люди ни на что не повлияли. Не знаю, какой %% жителей Земли вообще слышал о них (подозреваю, что и 1% не наберется).
Так и супер-AI ни на что не повлияет.

 >>/1576/
Какой процент людей Земли слышал о человеке по имени Фриц Габер? А ведь больше половины людей на этой планете своим существованием обязаны его открытию.


thumbnail of FkYynhNWQAA7iAj.png
thumbnail of FkYynhNWQAA7iAj.png
FkYynhNWQAA7iAj png
(189.72 KB, 831x793)
thumbnail of IQ-and-GDP-per-capita-growth-1500-2005.png
thumbnail of IQ-and-GDP-per-capita-growth-1500-2005.png
IQ-and-GDP-per-capita... png
(91.35 KB, 850x387)
thumbnail of twopaths_99thiq-0b501f7526b80f2577a278dd3e49d7de.png
thumbnail of twopaths_99thiq-0b501f7526b80f2577a278dd3e49d7de.png
twopaths_99thiq-0b501... png
(62.07 KB, 594x519)
 >>/1529/
>  Уровень говорилок типа хуяндексной Алисы и штамповки типовых картинок вроде новогодних сувениров из КНР.
Некоторые люди гордятся своей способностью не различать нюансы и смешением всего содержимого своей головы в единый поток дерьма. Вероятно, им кажется, что они сияют на этом фоне. 

 >>/1547/
Любопытно, что кальсон интуитивно шпарит по методичке Алинского:
https://www.openculture.com/2017/02/13-rules-for-radicals.html
>  Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
>  2. “Never go outside the expertise of your people.” It results in confusion, fear and retreat. Feeling secure adds to the backbone of anyone.
>  3. “Whenever possible, go outside the expertise of the enemy.” Look for ways to increase insecurity, anxiety and uncertainty.
>  4. “Make the enemy live up to its own book of rules.” If the rule is that every letter gets a reply, send 30,000 letters. You can kill them with this because no one can possibly obey all of their own rules.
>  5. “Ridicule is man’s most potent weapon.” There is no defense. It’s irrational. It’s infuriating. It also works as a key pressure point to force the enemy into concessions.
>  13. “Pick the target, freeze it, personalize it, and polarize it.” Cut off the support network and isolate the target from sympathy. Go after people and not institutions; people hurt faster than institutions.

Есть несколько моделей 100b-класса в свободном доступе, и с прошлой недели даже 175b-модель с instruct-тюнингом. 

Машинное обучение более воспроизводимо и открыто, чем академическая наука. 

А статья-то вышла, кальсон, и раз ты готов был ставить деньги, что она не выйдет – это никак не перетолковать. Ты обосрался с попыткой показать владение темой и способность оценивать публикации. Я обосрался с тем, что не стряс с тебя баблецо и не унизил публично. Охотно признаю это несовершенство. У всех свои недостатки. 

 >>/1575/
Нет, думаю ни одна сеть из показанных на сегодня этого не может. То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу. Ума у PaLM или грядущего GPT-4 для этого скорее всего хватит, но нужны инструменты для работы с контекстом. Возможно, что-то вроде ACT-1, но с языковым бекендом уровня PaLM и внешней лентой или memorizing transformer сможет выполнить это задание. 

 >>/1576/
>  Нужен не "искусственный интеллект", решающий сверхзадачи - а люди, умеющие делить в столбик
Розов как всегда позорно сливается, не утруждая себя аргументацией. 
Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса, потому что он имеет непревзойдённую широту знаний в этом поколении. Почти всё, что он делает – это помощь в доведении сложнейших исследовательских программ до решения. Наверное, если бы эти математики лучше умели делить  в столбик, он бы им не понадобился, но имеем что имеем.

Но важно даже не это. Похуй на отдельного, уникального Тао. В отличие от него, искусственный интеллект масштабируется, мы могли бы запустить тысячи и миллионы сессий инференса. И есть огромный массив свидетельств тому, что более умные люди полезнее для экономики и науки, чем более глупые люди; на больших выборках различия всего в несколько пунктов среднего IQ (или несколько процентилей другой валидной метрики когнитивных способностей) значимы, и закономерность сохраняется выше 99 процентиля. 
Умному этой информации достаточно. Идиот предпочтёт обсудить, сколько обывателей, не умеющих делить в столбик, знают Тао. 

К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х. 
На системе за 600к рублей. 

Помнится, не так давно, на почившем доброчане, какой-то надутый фуфел обсуждал сервера за миллионы денех для генерации кошкодевочек в Stable Diffusion. Надеюсь, мы это проехали.

 >>/2055/
> Ну что, батенька, где скачать полные сорцы ChatGPT и исходные датасеты? Или вы таки опять напустили себе в штаны?
> Методичка, копипаст, есть несколько моделей, *dirty panties dance intensifies*
Что ж, батенька, пора вам менять очередные кальсончики.
> Машинное обучение более воспроизводимо и открыто, чем академическая наука.
Ну как тут не поверить пачкающему собственные штаны шизофренику с манией еврейского заговора и нейросетевой обсцессией?
> А статья-то вышла
И как это относится к тому, больной, что вы гордо распушили свои кальсоны с предложением пари, а потом наложили в них кучу и попытались сбежать под надуманными предлогами?
> То есть, она может с некоторой вероятностью дать верный ответ, но не выполнить эту детективную работу. 
Как и сломанные часы, которые могут с некоторой вероятностью показать верное время. А вот есть ли у вас, уважаемый, численные оценки этой вероятности в общем случае? Или все вновь закончится тверком грязного филея под истошные вопли о грядущем пришествии нейробоженьки?
> Про Тао слышали все, кто хоть немного интересуется наукой и математикой, это не просто потешный азиат с высоким IQ, и даже не просто лауреат премии Филдса, а человек, к которому обращаются за советами другие люди уровня премии Филдса
Да вы, батенька, никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать?
> К слову о масштабировании. Показано, что можно с небольшими потерями точности сжимать нейросети до 4 бит на параметр. Это значит, что тот же ChatGPT влезет в 87 гигабайт – его можно было бы запустить на четырёх 3090-х.
На системе за 600к рублей.
Пора. Пора! Скоро, уважаемый, вы будете начальником подотдела масштабирования!

 >>/2075/
>  Да вы, батенька, никак читали переписку Перельмана с Тао? 

British mathematician and Fields medalist Timothy Gowers remarked on Tao's breadth of knowledge:[29]
Tao's mathematical knowledge has an extraordinary combination of breadth and depth: he can write confidently and authoritatively on topics as diverse as partial differential equations, analytic number theory, the geometry of 3-manifolds, nonstandard analysis, group theory, model theory, quantum mechanics, probability, ergodic theory, combinatorics, harmonic analysis, image processing, functional analysis, and many others. Some of these are areas to which he has made fundamental contributions. Others are areas that he appears to understand at the deep intuitive level of an expert despite officially not working in those areas. How he does all this, as well as writing papers and books at a prodigious rate, is a complete mystery. It has been said that David Hilbert was the last person to know all of mathematics, but it is not easy to find gaps in Tao's knowledge, and if you do then you may well find that the gaps have been filled a year later.

Кальсон, чего ты добиваешься, компульсивно пытаясь доебаться до совершенно неуязвимых пунктов в моём посте? Нейродегенерация зашла так далеко, что ты не можешь выполнить п.2 из методички Алинского?

thumbnail of just-read-another-book-challenge.jpg
thumbnail of just-read-another-book-challenge.jpg
just-read-another-boo... jpg
(60.88 KB, 768x397)
 >>/2075/
>  никак читали переписку Перельмана с Тао? Не пора ли просто все взять и отмасштабировать?
Собачьему сердцу скоро сто лет. Прочитай уже другую книгу. Их много с тех пор написали, хороших. Аналогии из них более удачными получаются.

 >>/2076/
А, ну раз один лауреат как-то его упомянул, то к этому Тао уже выстраиваются очереди за советами.
Логика вообще не самая сильная черта больных шизофренией, да, больной?
 >>/2082/
> Собачьему сердцу скоро сто лет.
И? Too old for you, bibliopedobear?


thumbnail of Screenshot 2022-12-28 at 17.09.45.png
thumbnail of Screenshot 2022-12-28 at 17.09.45.png
Screenshot 2022-12-28... png
(314.14 KB, 1342x1356)
thumbnail of Screenshot 2022-12-28 at 17.27.19.png
thumbnail of Screenshot 2022-12-28 at 17.27.19.png
Screenshot 2022-12-28... png
(1.12 MB, 2578x1734)
 >>/2093/
Ну вот у вас, Кальсоненко, с логикой и правда полный порядок, это заметно, вы крайне увёртливы. Например, вы цитируете смехотворный паралогичный бред Розова ("Давайте представим, что сильный ИИ это то же самое, что умный человек... ну вот Тао очень вумный... а кто знает того Тао, ась? Пьюдипая все знают, Перельмана вон все знают благодаря мемам, а Тао только задроты какиета... следовательно ИИ ни на что не повлияет, а что повлияет?... умение делить в столбик!) – но как бы не одобряете, не подписываетесь под этим, а просто приводите, как пищу для ума. Да и как бы не вы цитируете, а ваш всегда прячущийся в кусты загадочный брат-близнец (правда, запашок выдаёт). 

И сейчас тоже: вы кривляетесь насчёт нелогичности выдуманной вами логической цепочки ("раз Гауэрс упомянул, то выстраиваются"), но как бы *не утверждаете*, что другие лауреаты или другие уважаемые математики не упоминали Тао; что Гауэрс просто "упомянул", а не дал вполне определённую характеристику способностям и вкладу Тао в математику (сравнив его с *Гильбертом*, of all people); что не согласны с Гауэрсом (хотя кому, право слово, было бы дело до вашей оценки); что Тао не является ключевым соавтором в десятках важных работ; что таки не выстраиваются. 

А если только кривляться и ничего конкретного не утверждать – то и спроса с вам нет, и можно претендовать на безупречную логичность. 

Логично? Логично! 

Но совершенно бесплодно и убого. Что в целом характеризует ваш подход. Неудивительно, что вам так импонирует зашедшее в тупик логическое программирование, которое и близко не подошло к плодотворности нейросетевой парадигмы.

 >>/2094/
> Ваши мысли мало того что чужие, так ещё и устаревшие на целый век.
Мысль о том, что "воруй@убивай - плохо" тоже довольно стара, так еще и не моя, а вот поди же ты.

 >>/2095/
> А если только кривляться и ничего конкретного не утверждать – то и спроса с вам нет, и можно претендовать на безупречную логичность.
Это да, больной. Поэтому вам стоило бы перестать утверждать что-то конкретное про "бОльшую открытость и честность ML" или "непревзойденную широту знаний Тао и обращающимися к нему за советом людьми (стоящими, не иначе, в очереди) с премиями Филдса" или про "художники, программисты, таксисты, бариста не нужны, слава нейрогосподу".
А то ведь заявляете такое, накладываете себе в кальсоны очередную ароматную кучу, а затем безуспешно пытаетесь скрыть тверком проступающие пятна и запах от ваших аргуметов.
> Например, вы цитируете смехотворный паралогичный бред Розова
Вот здесь, например, вы, пациент, вините в своих пахучих проблемах какого-то Розова. Вы слышали эту фамилию по больничному радио?
> Гауэрс дал вполне определённую характеристику способностям и вкладу Тао в математику
Ну что ж, уважаемый, раз в вашем воспаленном мозгу некая вскользь высказанная похвала одного из многих лауреатов премии Филдса превращается во множество лауреатов, ищущих совета Тао, то так оно и есть. Звучит логично, как и то, что очередные ваши кальсончики тайно испачкали коварные пожилые иудейские луддиты.

 >>/2115/
> воруй@убивай
Относительно новая формулировка. А отчего же не тухленький Горький, не 

>  Татарин. Магомет дал Коран, сказал: «Вот – закон! Делай, как написано тут!» Потом придет время – Коран будет мало… время даст свой закон, новый… Всякое время дает свой закон…

>  Сатин. Ну да… пришло время и дало «Уложение о наказаниях»… Крепкий закон… не скоро износишь!

? Или что-то аналогичное из того же времени?


 >>/2171/
Просто когда в таких ситуациях цитируют "Собачье сердце" - это означает, что новую литературу, которая гораздо удачнее и гораздо богаче, просто не читали.

Человек, который в 2022 в качестве первой отсылки к школе волшебства выбирает не Хогвартс, а Грушам Грейндж, вызывает естественные подозрения у Службы темпоральных интеракций.

 >>/2184/
> Просто когда в таких ситуациях цитируют "Собачье сердце" - это означает, что новую литературу, которая гораздо удачнее и гораздо богаче, просто не читали.
Какие-то странные, непонятно откуда высосанные выводы. Как будто в детстве Шариков покусал, прямо за роковые яйца.
> Человек, который в 2022 в качестве первой отсылки к школе волшебства выбирает не Хогвартс, а Грушам Грейндж, вызывает естественные подозрения у Службы темпоральных интеракций.
Сорта порри гаттеров с мордевольтами вызывают грусть у нормальной литературы. Даже если авторы оной потом становятся пришибленными феминистками.

thumbnail of Screenshot 2023-01-09 at 09.13.59.png
thumbnail of Screenshot 2023-01-09 at 09.13.59.png
Screenshot 2023-01-09... png
(1.79 MB, 2292x626)
Новый год – новые нейросети и старые пятна на кальсонах отрицателей.

Мне известно уже о полудюжине опенсорсных проектов репликации ChatGPT, также аналогах от Google, you.com (команда из Salesforce) и Anthropic, которые сравнимы по качеству. 
Антропик даже получше: https://twitter.com/andy_l_jones/status/1611063295850729472

В ближайшее время выходит опенсорсная модель для генерации картинок IF от DeepFloyd (профинансированных Stability), которая будет очень хороша в тексте и, вероятно, других мелких деталях. (Неожиданный факт, за ней стоит украинская команда).

С ней, вероятно, можно будет сравнить недавнюю гугловскую Muse https://arxiv.org/abs/2301.00704, которая продолжает тренд замены других типов нейросетей трансформерами (в данном случае выкинули U-Net). http://muse-model.github.io Чем Muse интересна? В первую очередь пониманием композиционной семантики  и кардинальности объектов. Почему это интересно? Потому что свет наш Гэри Маркус, выступающий на всех цирковых площадках от шоу Эзры Кляйна до The Economist, главный критик нейросетей без эксплицитных вшитых в архитектуру нейросимволических методов (т.е всего современного мейнстрима глубокого обучения), говорил не далее как в апреле 2022-го: https://twitter.com/garymarcus/status/1512647983317151747
>  Композиционность *это и есть* стена [в которую упирается машинное обучение]. 
"В математической логике и смежных дисциплинах принцип композиционности - это принцип, согласно которому значение сложного выражения определяется значениями составляющих его выражений и правилами, используемыми для их объединения. ... Принцип композиционности утверждает, что если из осмысленного предложения убрать лексические части , то останутся только правила композиции. Возьмем, к примеру, фразу «Сократ был человеком». После удаления значимых лексических элементов - «Сократ» и «человек» - остается псевдо-предложение «S было M». Задача сводится к описанию связи между S и M."

Соответственно нейросети, которые ПРОСТО комбинируют или интерполируют между элементами датасета (хуй его знает, что такое ПРОСТО в понимании критиков, но допустим) – никогда не смогут с высокой вероятностью правильно интерпретировать промпты, описывающие что-то сложнее набора объектов, расположенных в сцене случайным или статистически вероятным (для обучающего датасета) образом. 

Ну как поупирались в стену? 
Слева направо: Dall-e 2, Imagen, Muse. Понимание промпта очевидно растёт, а ресурсоёмкость моделей всё падает. Помимо своих других достоинств, Muse примерно на порядок быстрее предыдущего поколения моделей от Google (1.3 секунды на картинку на чипе класса A100). Обучение тоже вряд ли стоило больше, чем Stable Diffusion, не говоря уж о Dall-E.

Мне очень интересно, как Маркус будет выкручиваться в этот раз. Как кальсон, доёбываться до ошибок композициональности ("ахаха, у книжки обложки разного цвета!") и игнорировать, что их вероятность снизилась с почти 100% до 20-40% менее чем за год?
Или придумает новую стену, которую ИИ уж точно не пробьёт? 

Как я и говорил, вслед за картинками ждёт синтез видеоряда со звуком: 
https://twitter.com/zaesarius/status/1611708539931660289

 >>/2117/
Как водится, кольсон решил подоёбываться до слов. Но увы:
>  Поэтому вам стоило бы перестать утверждать что-то конкретное про "бОльшую открытость и честность ML" или "непревзойденную широту знаний Тао и обращающимися к нему за советом людьми (стоящими, не иначе, в очереди) с премиями Филдса"
>  некая вскользь высказанная похвала одного из многих лауреатов премии Филдса превращается во множество лауреатов
Тем временем что я сказал в действительности: 
>  > человек, к которому обращаются за советами другие люди уровня премии Филдса, потому что он имеет непревзойдённую широту знаний в этом поколении
Позволю себе принять на веру оценку Гауэрса, а не кальсона, хотя последний безусловно более сильный математик.
То, что я говорю конкретно, является правдой, а уж зачем ты так устремился в залупу насчёт Тао, что тебе приходится играть с этими форм – не моя беда.

 >>/2404/
Больной долго старался оттереть коричневые пятна на своих кальсонах, но плюнул и решил замаскировать их новыми. Авось в новом году никто и не вспомнит его пахучие виктории об открытости и честности ML, ведь нарастут новые слои на внутрибрючном фекальном сталактите пациента.
> Мне известно уже о полудюжине опенсорсных проектов репликации ChatGPT
Познавательно, батенька. Так где исходники ChatGPT и исходные датасеты - или вы без них, в своем божественном озарении, определили степень, как вы говорите, репликации?
> Слева направо: Dall-e 2, Imagen, Muse. Понимание промпта очевидно растёт, а ресурсоёмкость моделей всё падает. 
Несомненно, больной, понимание растет. Новая нейросеть на запрос с тремя книгами выдает не четыре, а две книги. Поступь прогресса просто поражает.
> ахаха, у книжки обложки разного цвета!
Какие мелочи, действительно. Скажем, если ввести вам, батенька, вместо галоперидола монтажную пену per rectum, то вы же не станете, как вы говорите, доебываться до подобных мелочей?
> их вероятность снизилась с почти 100% до 20-40% менее чем за год?
Самое уморительное, больной, это когда мнящий себя ученым пациент-шизофреник оценивает вероятность успешного вывода нейросети по четырем картинкам - да вдобавок получает величины вроде "20-40%".
> Позволю себе принять на веру оценку Гауэрса
Великолепно, уважаемый. Вам осталось завершить ваш тверк грязных кальсон эффектным па с приведением цитаты, в которой Гауэрс утверждает о наличии нескольких людей "уровня премии Филдса", обращающихся к нему за советом.

 >>/2417/
>  виктории об открытости и честности ML
Кальсон продолжает хуярить по методичке Алинского и в 2023-м. Типа, ChatGPT и другие *коммерческие* модели закрыты, значит – поебда.  
Кольсон сам, может, не видит слабоумия этой претензии, но это не оправдание. 
>  Так где исходники ChatGPT и исходные датасеты
Да, он не сдаётся! Удивительно.
>  Новая нейросеть на запрос с тремя книгами выдает не четыре, а две книги 
>  Какие мелочи, действительно
>  Самое уморительное, больной, это когда мнящий себя ученым пациент-шизофреник оценивает вероятность успешного вывода нейросети по четырем картинкам
В самом деле, кальсон. Ваши бы слова да вам в уши.

 >>/2449/
> ML значительно честнее средней научной области, потому что есть культура открытого кода, стандартных бенчмарков и публичных демо.
> Типа, ChatGPT и другие *коммерческие* модели закрыты, значит – поебда. Слабоумие, Кандинский, методичка [звуки убегающего Зойдберга]
Ну вот, больной. Ну испортили вы еще одну пару кальсон, ну пропах вами весь больничный пункт. А толку?
> Ваши бы слова да вам в уши.
Зачем, пациент? Ведь ваша история болезни и так записывается, и мы даже подумываем сдать вас в кунсткамеру - вот только не успеваем сходить за формалином, как вы опять портите больничную одежду. Вот и опять, новая кучка вашего продукта на тему невообразимого "прогресса" нейробожка.

thumbnail of laion_IF.png
thumbnail of laion_IF.png
laion_IF png
(334 KB, 473x473)
 >>/2467/
ChatGPT – это код или бенчмарк, кальсон? Нет, это публичное демо коммерческого сервиса. Так что вы хотели доказать этой цитатой – свою способность понимать текст, явно уступающую нейросетевым языковым моделям? Поверьте, все в этом уже убедились.

К слову об ожидаемой коммерческой ценности продуктов серии GPT. Маркус сообщает: 
https://garymarcus.substack.com/p/is-microsoft-about-to-get-the-deal

Согласно слухам, опубликованным на сайте Semafor, а затем повторенным Reuters, Microsoft готовится вложить 10 миллиардов долларов (возможно, частично в виде кредитов на облачные вычисления?) в OpenAI, оценивая OpenAI в 29 миллиардов долларов.

Конечно, считаете ли вы, что 29 миллиардов это разумная оценка OpenAI – во многом зависит от того, что вы думаете об их будущем. (По слухам, пока что доход компании составляет около 29 миллионов долларов в год, так что для заключения подобной сделки нужно думать, что скоро все станет намного лучше).

Начнем с того, что это не обычная сделка, в которой инвестор получает 20% акций компании в обмен на большую сумму денег и место в совете директоров. Вместо этого, если отчетность верна:

Microsoft "будет получать 75% прибыли OpenAI, пока не окупит свои инвестиции". Это очень много, и это не то, на что обычно соглашаются стартапы-ракетчики.
После этого, когда Microsoft заработает свои деньги, Microsoft будет владеть "49% акций, другие инвесторы получат еще 49%, а некоммерческая родительская организация OpenAI получит 2%".

...Сколько на самом деле будет стоить AGI? Несколько лет назад компания PwC подсчитала, что общий объем рынка ИИ к 2030 году может составить более 15 триллионов долларов в год; McKinsey опубликовала аналогичное исследование, в котором фигурировала цифра в 13 триллионов долларов в год. 

...Если дела пойдут действительно хорошо, OpenAI вернет себе контроль; мне сообщил источник, видевший документы: "Как только 92 миллиарда долларов прибыли и 13 миллиардов долларов первоначальных инвестиций будут возвращены [компании Microsoft] и как только другие венчурные инвесторы заработают 150 миллиардов долларов, весь капитал вернется к OpenAI". В этом свете игра Альтмана больше похожа на хеджирование, чем на продажу; немного денег сейчас, много позже, если они будут очень успешны.

Ещё раз: Microsoft готова инвестировать 10 миллиардов долларов в компанию, которая якобы зарабатывает 30 миллионов долларов в год, за менее 50% доли.
Microsoft была готова купить за 100 % акций компанию Activision-Blizzard за 60 млрд долларов, которая приносит 7 млрд долларов в год. Это, по сути, самая большая игровая франшиза в истории, с сильным заделом на будущее.
Соотношение инвестиций и дохода здесь буквально 333:1 -> 666:1 при ~50% доле против 9:1 при 100% доле.

Безусловно, это просто хайп смузихлёбов-стартаперов. Как Теранос. 
Но какой же наваристый получается смузи, особенно в наших непростых экономических условиях.

 >>/2481/
> ChatGPT – это код или бенчмарк?
Очевидно, больной, что это код и датасеты. Но так как вы уже испортили немало кальсон, то теперь пытаетесь скрыть свои позорные пятна неистовым тверком. Оказывается, это всего лишь публичное демо (например, сотни индусов, отвечающих через веб-интерфейс), но одновременно вызывающее своей грандиозностью расслабление вашего сфинктера научное достижение зашкаливающей открытости и честности.
Иными словами, вам, батенька, пора срочно менять очередные больничные кальсоны, а ваш филей нужно срочно пролечить бальзамом "Звездочка" во избежание массивных опрелостей, переходящих в газовую (oh, irony) гангрену.
> Согласно слухам, опубликованным на сайте Semafor
Ну, уважаемый, раз уж согласно слухам, то тогда уж точно необходимо причаститься вашим нейробожком.
> Microsoft "будет получать 75% прибыли OpenAI, пока не окупит свои инвестиции". Это очень много, и это не то, на что обычно соглашаются стартапы-ракетчики.
Действительно, это не то, на что обычно соглашаются стартапы. Но если высшие жрецы нейробожка понимают, что хайп скоро закончится и AI-пузырь лопнет - то очень логично забрать у лохов много денег сейчас в обмен на будущую прибыль, которой никогда не будет. Завывающие о скором пришествии нейробожка сектанты-шизофреники только помогают набить цену.

 >>/2485/
> Оказывается, это всего лишь публичное демо (например, сотни индусов, отвечающих через веб-интерфейс)

Самому-то не смешно, кретин? Или ты так и не осилил потыкать в ChatGPT своими культяпками? 

>  Но если высшие жрецы нейробожка понимают, что хайп скоро закончится и AI-пузырь лопнет - то очень логично забрать у лохов много денег сейчас в обмен на будущую прибыль, которой никогда не будет.
Как же много денех теряют лошки из Microsoft, не нанимая консультантом харьковского шизофреника...

 >>/2550/
> Самому-то не смешно?
Грешно смеяться над больными людьми. Вы, пациент, конечно стараетесь рассмешить изо всех сил, но ваш единственный прием напустить в кальсоны, тверкать и вопить про то, что это дерьмо вам подбросили, - уже не веселит, в тысячный-то раз.
> Как же много денех теряют лошки из Microsoft, не нанимая консультантом харьковского шизофреника...
Сомневаюсь, что наем вас, батенька, консультантом - и сэкономил бы хоть что-то. Хотя мелкомягким не привыкать терять деньги, да хоть на том же виндофоне, но ежедневные ж/д составы чистых кальсон для вас даже они могут не потянуть.




thumbnail of Screenshot_2023-01-22_19-09-40.png
thumbnail of Screenshot_2023-01-22_19-09-40.png
Screenshot_2023-01-22... png
(133 KB, 1309x403)
thumbnail of 4cbe834c-5e7c-4452-9a46-29a65ad1e65a.png
thumbnail of 4cbe834c-5e7c-4452-9a46-29a65ad1e65a.png
4cbe834c-5... png
(482.21 KB, 849x2711)
thumbnail of Screenshot_2023-01-22_19-16-10.png
thumbnail of Screenshot_2023-01-22_19-16-10.png
Screenshot_2023-01-... png
(212.87 KB, 774x841)
thumbnail of Screenshot_2023-01-22_19-18-47.png
thumbnail of Screenshot_2023-01-22_19-18-47.png
Screenshot_2023-01-22... png
(55.84 KB, 856x274)
thumbnail of Screenshot_2023-01-22_19-27-29.png
thumbnail of Screenshot_2023-01-22_19-27-29.png
Screenshot_2023-01-22... png
(78.17 KB, 643x280)
Материалы и мыслишки.

1) Неотцензуренная GPT судя по намёкам может чуть больше и интереснее. Но насколько? "Тупость" ChatGPT от  "RLHF фазы"?

2) https://habr.com/ru/post/709472/
https://www.lesswrong.com/posts/uHyZmfZKpXxo6uiEe/ai-psychology-should-ground-the-theories-of-ai-consciousness
https://www.lesswrong.com/posts/yGaw4NqRha8hgx5ny/the-case-for-becoming-a-black-box-investigator-of-language
https://www.lesswrong.com/posts/LbrPTJ4fmABEdEnLf/200-concrete-open-problems-in-mechanistic-interpretability
https://www.lesswrong.com/posts/ddR8dExcEFJKJtWvR/how-evolutionary-lineages-of-llms-can-plan-their-own-future
https://www.lesswrong.com/posts/oSPhmfnMGgGrpe7ib/properties-of-current-ais-and-some-predictions-of-the
https://www.lesswrong.com/posts/yRAo2KEGWenKYZG9K/discovering-language-model-behaviors-with-model-written
https://www.lesswrong.com/posts/vJFdjigzmcXMhNTsx/simulators
https://www.lesswrong.com/posts/yRAo2KEGWenKYZG9K/discovering-language-model-behaviors-with-model-written
https://www.lesswrong.com/posts/rxoBY9CMkqDsHt25t/eliciting-latent-knowledge-elk-distillation-summary

Статья от "ИИ-психолога" лессвронговца. Там больше интересен типичный спор "это всего лишь программа и математика" в комментариях, в котором он внезапно демонстрирует "жидошизовую" позицию: "да вы человеки такие же".

3) "ИИ-психолог" утверждает, что у GPT есть концепция Я и нестабильное, но самоосознание.

4) Всё это "нейросети как люди, а люди как нейросети" мне только напоминает тех кадров, которые умудрялись до этого сравнивать работу мозга с фон-неймановским PC. А с чем там древние греки сравнивали это же? Как появляется какая-то техническая вещь, люди начинают говорить что вот оно, наше сознание совершенно точно работает как эта вещь! А ещё раньше мы работали на "частичке бога", ага.
Так и аниме-персонажи живые и обладают "концепцией я".

thumbnail of 167441101527509.png
thumbnail of 167441101527509.png
1674411015275... png
(1.06 MB, 2056x2840)
Впрочем в этом дрянном и поехавшем мире заботятся не только о психологии нейронок, но даже о психологическом комфорте сраных псин.

А знаете, о ком здесь не заботятся? О сраном мужике. Мужика можно и подыхать посылать, и дерьмо качать за 12к. Об анончике никто не позаботится: хули ноет и ничего не хочет, мужике же, достигай.

 >>/2954/
А я люблю обмазываться не свежими статейками и дрочить. Каждый день я хожу по интернету с черным мешком для мусора и собераю в него все статейки о нейросетях которые вижу. На два полных мешка целый день уходит. Зато, когда после тяжёлого дня я прихожу домой, иду в ванну, включаю свою eee PC...ммм и скачиваю в нее свое сокровище. И дрочу, представляя, что меня поглотил единый организм нейросеть. Мне вообще кажется, что нейросети, умеют думать, у них есть свои семьи, города, чувства, не смывайте их в /dev/null, лучше приютите у себя, говорите с ними, ласкайте их.... А вчера в ванной, мне преснился чудный сон, как будто я нырнул в инторнет, и он прератилось в нейросеть, художники, программисты, санитары, все из нейросетей, даже небо, даже Аллах.


 >>/2646/
Спасибо, но я с МЛ на базовом уровне знаком, сейчас именно на NLP подробнее смотрю.

Алсо, такой реквест. Какие есть предобученные генеративные модели для русского языка, чтобы их файнтюнить для определённых текстов? В GPT-2 1.5 миллиарда параметров, это жирновато чтобы дообучать в Колабе или на нищеноуте, хотелось бы что-нибудь простенькое. А BERT не генерит текст, а угадывает маскированные токены, это другое.



thumbnail of adiane5b7e22e9f13c3e97d52b41a12ec4bddf.jpg
thumbnail of adiane5b7e22e9f13c3e97d52b41a12ec4bddf.jpg
adiane5b7e... jpg
(390.73 KB, 1100x1670)
анон, который постил в https://nowere.net/b/res/144256.html

которого обзывали кальсоном.

предлагаю делать синглтон. применим для уничтожения низших рас и жидов, как ты любишь.

моя идея - универсальный токенизатор, который токенизирует действия, содержимое картинок, и используется внутри ворлдмодели по типу жпт. собственно предпоследние 2 поста в треде.

чатжпт как мы видим выдаёт приемлимую ворлдмодель, надо только к нему прикрутить шорттёрм мемори и правильную токенизацию чтоб она могла быть проактивной, а не просто базой знаний. даже самим ничего обучать не нужно.

 >>/3103/
Я нихуя не понял. В очередной раз спасаясь от позора, жидошизик перебежал на новерь и теперь там рассказывает свои охуенные истории о жидах и культе нейросетевого божка?

thumbnail of adiane183be57982e99166e5263c7c352a7347.jpg
thumbnail of adiane183be57982e99166e5263c7c352a7347.jpg
adiane183be5... jpg
(333.76 KB, 1040x1460)
 >>/3109/
нет жидошизиков, есть жиды-мидвиты с охуенной хуцпой и комплексом христа.

посмотри как жиды гадают на кофейной куще: https://youtube.com/watch?v=Nj42o4oAFqA

поэтому и пытаюсь выйти на связь с кальсоном(уж извини, знаю тебя только по этому имени, ну или "жидошизик")

 >>/3180/
Путаешь персоналий же, ну. Жидошиз ЗА нейросети:  >>/2449/ (gpt лучше и умнее человека и скоро придет сингулярность). 
Доктор Кальсон против:  >>/2417/ (это всё баловство и бесполезные демки которые ничего не (с)могут и применение будет ограничено тем же баловством).

Там какую-то новую нейросетку для озвучивания выкатили? Просто в один день вижу смищные вебмки с известными людями, озвучивающими всякий трешак. И в тот же день вижу скрины с твиттерной истерикой дикторов (вместо художников).

 >>/3067/
Спасибо большое.