thumbnail of 2023-02-19 17.42.19.jpg
thumbnail of 2023-02-19 17.42.19.jpg
2023-02-19 17.42.19 jpg
(114.26 KB, 1280x736)
thumbnail of FpS4l0yagAEPArC.jpeg
thumbnail of FpS4l0yagAEPArC.jpeg
FpS4l0yagAEPArC jpeg
(103.47 KB, 1164x797)
thumbnail of FpNuFKQXEAAyDEp.jpeg
thumbnail of FpNuFKQXEAAyDEp.jpeg
FpNuFKQXEA... jpeg
(275.22 KB, 1268x2066)
thumbnail of FpECkPhXwAE7BmZ.jpeg
thumbnail of FpECkPhXwAE7BmZ.jpeg
FpECkPhXwAE7BmZ jpeg
(177.81 KB, 1215x1183)
thumbnail of FpECt0XXoAMVMx9.jpeg
thumbnail of FpECt0XXoAMVMx9.jpeg
FpECt0XXoAMVMx9 jpeg
(158.85 KB, 1206x953)
Ну что, прошло чуть больше месяца. Я так понял, что можно не тратить время на кальсонерию – результаты говорят сами за себя.

Напомните, что там было по критериям настоящего интелехта. Может послать нахуй, когда дают нитот запрос? Человекоподобно реагирует на абсурд? Не путается в арифметике?  Может выполнить исследование литературы на заданную тему? 

А ведь это только GPT-4. GPT-5 уже обучается на нескольких десятках тысяч GPU. 

 >>/2938/
Не взлетит. Backprop работает мгновенно, FF – просто интеллектуальное упражнение. А жаль, красивая штука.

 >>/2954/
Latent knowledge интересная тема, но тоже довольно безнадёжная. Вот лучшая статья https://arxiv.org/abs/2212.03827

>  Как появляется какая-то техническая вещь, люди начинают говорить что вот оно, наше сознание совершенно точно работает как эта вещь! 

Ты ведёшься на ложь научпоперов. Все эти метафоры понимались именно как метафоры, никто не разрабатывал детальную теорию о гидравлических репрезентациях понятий в мозгу или о эксплицитных вычислительных цепях, сколько-нибудь серьёзно аналогии стали использоваться после когнитивной революции, и действительно в мозгу есть (ограниченная) модульность. Нейросети же основаны на коннекционизме, который доказан железобетонно. Но, конечно, вопрос не в том, насколько они похожи архитектурно – вопрос в том, могут ли нейросети являться субстратом для аппроксимации всех интересных и трудноопределимых функций для работы с произвольной информацией, которые мы объединяем понятием "общий интеллект" – pattern recognition, learning, meta-learning, transfer learning, exploration, goal-directed behavior, abstract reasoning, common sense reasoning, symbol manipulation и дальше как кому угодно это разбивать на академические поддомены. Похоже, что могут и не очень-то напрягаясь. 

Предпосылка всех метафор состоит в том, что мозг/сознание работает *как-то* механистично, и это необходимо следует из нашего материализма. Единственные оговорки тут могут быть насчёт пенроузовского quantum woo, которое даёт некоторым повод считать, что наш общий интеллект не может быть вычислим на классических компьютерах и таким образом недоступен нейросетям (или любой другой AI-парадигме, которая использует классические компьютеры). Но пенроузовщина беспруфна.

 >>/3035/
>  не то чтобы далеко от реальности оказалось, правда немного в другой плоскости.

В достаточно многомерном пространстве шизоассоциаций вообще всё недалеко друг от друга, просто в немного разных плоскостях. За счёт этого, кстати, и нейросети легко находят аппроксимации. Разница в том, что у них объективная функция осмысленная, а кальсон просто максимизирует наполнение своих порток навозом.  
Ты правда не различаешь обучение с учителем, когда нейросети в оффлайне дают примеры, из которых она обобщает принцип для *похожих, но других* задач в онлайне, и буквального ремоут-индуса с джойстиком, который управляет роботом? 

 >>/3043/
C русским всё плохо.

 >>/3044/
Любопытно, как stable diffusion раскрыли ControlNet-ами, promptPix2Pix и другими костылями. Оказывается, модели больше не очень-то и нужны.  

 >>/3103/
>  применим для уничтожения низших рас и жидов, как ты любишь
Не люблю.

Как именно ты собираешься токенизировать действия? 
Но вообще это похоже на GATO и проект Кармака. Поброди по дискордам и более обскурным бордам, тут не вижу смысла указывать, где этим занимаются.

 >>/3202/ >>/3203/
Whisper показал, что голосовые нейронки хорошо обобщают. Даже слишком хорошо – если дать ей текст на английском, но случайно оставить в настройках русский, то она *распознает что-то близкое и по смыслу, и по последовательности звуков*, это очень странно выглядит. Тут, думаю, принцип похож, но и в общем датасете, и у конкретного спикера очевидно не было достаточно русских сэмплов - поэтому распарсить кириллицу оно может, а фонемы использует англоязычные. 

 >>/3232/
Теперь так 
https://cprimozic.net/blog/reverse-engineering-a-small-neural-network/