Er0tcD3VgAEWDXX jpeg
(64.72 KB, 989x541)
Edrn-kQXYAAuV5O png
(141.65 KB, 724x423)
>>/1215/
> что это лишь обработка больших таблиц методами 100-летней давности
> это крайне примитивная обработка таблиц крайне больших данных
> Методически такой ИИ не смог подняться выше исходной идеи Фрэнка Розенблатта, показанной в 1957-м - 1960-м
> Уже через 10 лет стало понятно, что в исходной (вполне гениальной) идее были, все-таки, слишком урезаны функции нейрона и игнорировались функции инфохимической среды, поэтому сети на таких виртуальных модельных нейронах достигнут, в лучшем случае, интеллекта медузы.
> ИИ, как сборщик и примитивный анализатор "больших данных", конечно, полезен - но только на очень ограниченном круге задач (заведомо ограниченном, как доказали Мински и Паперт в 1969-м).
Вот опять, что это за эссенциалистский бред? Как такие тупые и наглые люди заканчивают обычную среднюю школу? Словечко "лишь" передаёт здесь не более чем гримасу презрения, с которой матёрый жежешный альфа-шимпанзе трясёт морщинистой мошонкой перед верными читателями, но интеллектуального содержания в сказанном ноль. Какая разница, как представлена структура данных? Розов читал Розенблатта и Мински, но пропустил Тюринга, быть может? Что изменилось в арифметике за 100 лет? Если опускаться до настолько глубоких примитивов, то его "перспективные исследования" сводятся к тому же самому набору, а графы и экспертные системы и символические GOFAI вообще не моделируют работу мозга – в лучшем случае они подражают талмудическим выдумкам на основе древних блок-схем когнитивных архитектур. Как из "урезаны функции нейрона" закономерно следует интеллект медузы, Розова не учили логике, но он смеет рассуждать о логических машинах?
В сущности, эти нудящие старички прикрывают потрёпанными "пруфами" чисто эстетическое неприятие нейросетей. Кому-то печёт от того, что общий интеллект оказался слишком сложен и глубок, чтобы его собрали три высоколобых талмудиста в Беркли из набора остроумных заклинаний, и пришлось собирать терабайты данных да обогревать атмосферу тензорными умножителями. Кому-то хочется, чтобы человек был венцом творения (но только человек, который любит облизывать яйца жежешного зверька – остальные, понятное дело, тупее и примитивнее шмеля). Пенроуз уверовал в Квантовые Микротрубочки, чтобы спасти свои детские религиозные интуиции. Розофф… честно говоря, не интересно, что у него там внутри за неонка.
Но особо меня возмущает ссылка на авторитет книжки 1969 года параллельно с претензиями к недостаточно модной и хайповой математике. В 1972-м вышла дрейфусовская What Computers Can't Do, делавшая даже более сильные заявления. Все скептические предсказания Дрейфуса были опровергнуты. Казалось бы, можно сделать вывод, что прошло полвека и пора почитать что-то новое, что-то написанное людьми, чьи предсказания сбылись. Например Лэгга, который предвидел, что скейлинг решит эти проблемы, и даже угадавшего примерный срок, ещё в 2009, до революции глубокого обучения. http://www.vetta.org/2009/12/tick-tock-tick-tock-bing/
Но нет, шимпанзе продолжает бахвалиться своей олдфажностью. Хотя даже его собственные примеры из https://alex-rozoff.livejournal.com/574744.html стали неактуальными – всего за несколько месяцев, на модели такого же размера, с тем же объёмом данных.
И что М&П *доказали*, кстати говоря? Что простой перцептрон не может вычислить XOR. Эта проблема решается добавлением одного скрытого слоя; М&П просто вербально отмахнулись от этого факта, никак не доказав его нерелевантность. А выразительность трансформеров доказуемо достаточна для любых вычислительных цепей фиксированной длины.
Всё это, конечно, уже не важно. Можно пойти и поговорить об этом с ChatGPT, она и Розова может отыграть лучше, чем он сам себя отыгрывает, и анти-Розова, и кого угодно.