>>/3691/
> SDXL
Индус кинул меня и перенёс на 25-е.
>>/3695/
Вообще проблема с MoE в том, что как раз по памяти они более прожорливы, я не помню хорошую схему такого оффлоадинга именно для них. Но возможно, что скоро у них будет ренессанс, т.к. https://arxiv.org/abs/2305.14705 показал хорошее масштабирование для тюнинга на следование инструкциям. Да и слухи/утечки про устройство GPT-4.
>>/3696/
Структуры в мозгу наполовину сделаны от бедности и невозможности нормального быстрого обмена данными, наполовину выдуманы скучающими нейрохуёлогами (или вовсе антропологами, как massive modularity). Смирись и хватит дрочить на фантазии постаревших хиппи с их схематозом, bitter lesson победил в этой ветке.
> текстовые модели уже показали всё что они могут в чатжпт
Code Interpreter это уже GPT 4.5, у тебя под носом произошло два больших прорыва, дурень. Через год GPT-4 будет выглядеть такой рухлядью, как GPT-3 сегодня. Никуда ты не денешься с этой подводной лодки, LLM продолжат развиваться ещё очень долго.