>>/3546/
> Что ты несёшь, крестьянин?
> крестьянин
А ты кто, депутат? Или может в СВО участвовал? Попустись, в текущей мете ты ни брахман, ни кшатрий, а лишь такой же крепост- ой, тьфу ты, "налоговый резидент". Ну если разве что ещё гражданство Израиля не получил. Тогда не прав. Шалом!
> То, что я могу экстраполировать из этого гипотезу о следующей итерации с большой степенью уверенности – моё преимущество над тупой базой данных, которая просто перебирает данные ей факты.
То есть, ты эту гипотезу выдумал, не основываясь на фактах.
> Я тоже не знаю, какие exactly трюки из десятков доступных они применят в 2023, а какие отложат на потом.Только они все уже существуют и известны. В дополнение к тем, которые OpenAI скрывает, конечно, как они скрывают свои методы тюнинга гиперпараметров.
Десятки, тысячи миллионов трюков, и все скрывают! Великий 5D chess от гениальных создателей уникальной технологии аналоговнет.
> > GPT-4 is coming, but currently the focus is on coding (i.e. Codex) and that's also where the available compute is going. GPT-4 will be a text model (as opposed to multi-modal). It will not be much bigger than GPT-3, but it will use way more compute. People will be surprised how much better you can make models without making them bigger. The progress will come from OpenAI working on all aspects of GPT (data, algos, fine-tuning, etc.).
И че? Закон Парето знаешь? 20% усилий дают 80% результата. 80% усилий дают остальные 20% результата. Ты увидел только что 80% того, на что способен современный "AI". Остальные 20% будут допиливать напильником ещё n лет, о чём тебе прямо Альтман и говорит.
> Прежде чем диагностировать галлюцинации или любые иные психические нарушения
На воре и шапка горит, а я тебе ничего не диагностировал, а сравнил лишь твои фантазии с галлюцинациями нейронок.
>>/3570/
Ты этот пост в нейронке сгенерировал?
> Да, нейросети смогут ускорить инженерную часть циклов производств, смогут участвовать в цикле контроля качества на производстве, смогут контролировать сложные технологические процессы, где пока ещё требуется человеческий контроль. Нейросети количественно ускорят разработку лекарств и будут участвовать в диагностическом цикле медицины. Автопилоты тоже будут.
"Смогут", "будут". Анус ставишь, что смогут и будут? Может, они ещё и перестанут быть уязвимы к prompt injection attacks, которые позволяют сливать любую конфиденциальную информацию (включая внутреннюю документацию нейронки), как это случилось недавно у Samsung, что привело к полному запрету работникам использовать ChatGPT и иже с ними? Потому что нейронки это в каком-то смысле изъёбистый интерпретатор языка, где языком является English, и вводимый код и data это одно и то же, и никакой свободы воли или сознательности от контролируемого искусственного человеческого артефакта в принципе ожидать невозможно?
Как вы не осознаёте, что нейросети это цифровые имбецилы, неспособные ни на какую сознательную деятельность, мне совсем не понятно. Какой уровень веры в Футураму надо иметь, чтобы этого не понимать, когда мы все коллективно переживаём технологические Тёмные Века (хотя, с другой стороны, на то они и Тёмные, чтобы иметь высокий уровень религиозного фанатизма, хым). Особенно непонятно, почему главный сабж треда, учитывая свой уровень интеллекта, этого не понимает - или же понимает, но готов умереть на этом холме веры в AGI, лишь бы не оказаться неправым перед анонимными ноунеймами. Ведь если он скажет "Да, ребята, я поверил в хайповую хуйню, опять. Не хватает мне ещё контроля над хайпожорством своим, пиздец. Пойду чая с шалфеем попью и запишусь, может, на уроки вязания", то тред можно было бы закрыть. (и не воспринимай это как персональную атаку на себя, на которую надо злобно огрызаться, просто будь проще, зай)