>>/3503/ > Человек же, который может смеяться, даже если он ничего объяснить о сути смеха не может, например, круглый дурак и ноль в красноречии, тем не менее, он определённо понимает, что такое смех. Нет, это чисто физиологическая реакция. > мой набор сенсоров намного шире, чем буквы в телевизоре Потенциально "боту" доступны любые модальности. > это не доказывает, что она может смеяться ("понимает смех"). Только то, что "знает" В чём практическая ценность "понимания", которое не добавляет ничего к поведению сверх того, что даёт "знание"? Сети – инструменты, мне не интересны их внутренние переживания. > Принцип работы пока? не разгадан же С точки зрения шиза безусловно, но вообще мы знаем принцип уже около столетия, а теперь знаем все (похоже) низкоуровневые и высокоуровневые механизмы и закрываем промежуточные слои. >>/3504/ > Лет 10 назад разговоров-то сколько было, особенно среди вайтишне и научпокеров, про всякие "китайские комнаты" и "философских зомби", и потому я предполагал, что сегодня публика мало-мальски готова не переоценивать ботское "понимание" хотя бы самым нелепым образом Тебе не приходит в голову, что эти модели просто были признаны неуместными? Ну поговорили про китайскую комнату и поговорили. Философы опять беспомощно запутались в словах, что тут дальше-то тереть. > Для слово-бота же все проявления мира сводятся к последовательности знаков, которыми можно манипулировать в рамках определённых правил Да, LLM моделирует языковую вселенную, а не физическую. Языковая вселенная на удивление богата, оказалось, что её хватает для закрытия всех классических задач NLP и всех глупых присказок про китайские комнаты. LLM с мультимодальным датасетом будет моделировать что-то очень близкое к нашей реальности. В чём твоя проблема?