fe.settings:getUserBoardSettings - non array given[dobrochan] - Endchan Magrathea
thumbnail of 2022-12-01 02.34.30.jpg
thumbnail of 2022-12-01 02.34.30.jpg
2022-12-01 02.34.30 jpg
(71.66 KB, 768x768)
thumbnail of 42e7dddf-9889-48b0-bbed-9c673ef99f2a_794x993.jpg
thumbnail of 42e7dddf-9889-48b0-bbed-9c673ef99f2a_794x993.jpg
42e7dddf-9889-4... jpg
(216.82 KB, 794x993)
thumbnail of 6bdcf404-48ec-4be4-b273-93684316e753_586x586.jpg
thumbnail of 6bdcf404-48ec-4be4-b273-93684316e753_586x586.jpg
6bdcf404-48ec-4be4-b2... jpg
(69.79 KB, 586x586)
thumbnail of Screenshot 2022-12-09 at 18.57.24.png
thumbnail of Screenshot 2022-12-09 at 18.57.24.png
Screenshot 2022-12-09... png
(567.09 KB, 2034x1708)
thumbnail of Screenshot 2022-12-09 at 20.46.01.png
thumbnail of Screenshot 2022-12-09 at 20.46.01.png
Screenshot... png
(530.51 KB, 1238x1608)
 >>/1290/
Тебе это всё ещё кажется семёнством? Кальсон вот ровно настолько тупой и есть. Да, такие люди существуют. Люди же не нейросети, чтобы постоянно учиться и совершенствоваться – наоборот, мы стареем, тупеем, прогрессируют наши болезни, а не сильные стороны. Это не семёнство, не заговор жидомасонов, не пиар, не обман чтобы набрать классы. Это живой пример горделивого недочеловечка, который до последнего будет отрицать, что неправ. Из-за таких, как он, мы встречаем сингулярность со спущенными штанами.

 >>/1291/
Анон забыл добавить bad_prompt.pt в негативы. 
Кроме пальцев, тебя ничего не смущает? 

 >>/1297/
Есть *шанс*, что эти методы – в смысле, конкретно большие предобученные языковые модели на трансформерах – выйдут на плато чуть ниже внимательно работающего профессионала. Всё же они интерполируют между закономерностями в датасете, а не имеют общий постоянно активный сверхинтеллект, чтобы иногда поларпить дебила. Они обучались на людях, а люди делают ошибки, срезают углы, плохо понимают, что от них требуется. Да, пока выглядит, что итерациями и промпт-инжинирингом это можно преодолевать, заставляяя модель имитировать качественное мышление. Но насколько эластичны границы этого метода, особенно для уровней, для которых по определению очень мало сэмплов, потому что таких людей просто мало? Когда мы будем пытаться выжать из ИИ 95-й процентиль, 99-й, 99.9-й, насколько чаще будет лопаться мыльный пузырь симулируемого глубокого понимания контекста? Я вижу трюки, которыми это можно обойти, и конечно же путь рекурсивного улучшения датасета, но это ещё, наверное, не в GPT-4 будет.

Но я наблюдаю забавное: что секта отрицателей ИИ скатывается в довольно дикую мизантропию, как только начинает чувствовать, что для рядового хомосапого заменитель кажется вполне идентичен натуральному. 

>  Совместить ее со Stable Diffusion, с 3D AI и другими узкоспециализированными моделями
Говорят, к GPT-4 будет приделан Flow для синтеза и понимания картинок в контексте.

 >>/1298/
>  Также семьи начинают залезать в долги, компенсируя нехватку «отобранных» роботами средств заимствованиями (+10 %). Наконец, автоматизация снижает число детей в семье на 1,2 % и заставляет больше тратить на уже имеющихся в семье детей. На образование начинает идти больше (+10 %) и больше идёт на внеклассное обучение (+24 %).
Ебанутые. Интересно, эта крысиная гонка вообще работает или они просто в отчаянии?