>>/3503/
> Человек же, который может смеяться, даже если он ничего объяснить о сути смеха не может, например, круглый дурак и ноль в красноречии, тем не менее, он определённо понимает, что такое смех.
Нет, это чисто физиологическая реакция.
> мой набор сенсоров намного шире, чем буквы в телевизоре
Потенциально "боту" доступны любые модальности.
> это не доказывает, что она может смеяться ("понимает смех"). Только то, что "знает"
В чём практическая ценность "понимания", которое не добавляет ничего к поведению сверх того, что даёт "знание"? Сети – инструменты, мне не интересны их внутренние переживания.
> Принцип работы пока? не разгадан же
С точки зрения шиза безусловно, но вообще мы знаем принцип уже около столетия, а теперь знаем все (похоже) низкоуровневые и высокоуровневые механизмы и закрываем промежуточные слои.
>>/3504/
> Лет 10 назад разговоров-то сколько было, особенно среди вайтишне и научпокеров, про всякие "китайские комнаты" и "философских зомби", и потому я предполагал, что сегодня публика мало-мальски готова не переоценивать ботское "понимание" хотя бы самым нелепым образом
Тебе не приходит в голову, что эти модели просто были признаны неуместными? Ну поговорили про китайскую комнату и поговорили. Философы опять беспомощно запутались в словах, что тут дальше-то тереть.
> Для слово-бота же все проявления мира сводятся к последовательности знаков, которыми можно манипулировать в рамках определённых правил
Да, LLM моделирует языковую вселенную, а не физическую. Языковая вселенная на удивление богата, оказалось, что её хватает для закрытия всех классических задач NLP и всех глупых присказок про китайские комнаты.
LLM с мультимодальным датасетом будет моделировать что-то очень близкое к нашей реальности. В чём твоя проблема?