## Ответы
> уверен ты не думал
Это распространённая ошибка. Такие аргументы (что языковая модель может стать платформой, на которой исполняется ИИ с агрессивным ресурсно-ориентированным поведением) не новы.
https://www.greaterwrong.com/posts/kpPnReyBC54KESiSn/optimality-is-the-tiger-and-agents-are-its-teeth
https://www.gwern.net/fiction/Clippy
На это отвечают
https://aiimpacts.org/counterarguments-to-the-basic-ai-x-risk-case/
https://plakhov.livejournal.com/232174.html
В целом похоже, что ai alignment очень прост и почти всё можно сделать без end to end reinforcement learning, функций полезности и прочей дрочки на KPI. Что заставляет в очередной раз задуматься, что главная опасность исходит от людей.
https://medium.com/@307th/what-happened-to-ai-learning-games-from-pixels-8c90fe127d7a
https://arxiv.org/abs/2211.03540 – более фундаментальный безопаснический подход
> что-то там про парсинг латеха
Я думаю это решаемо через что-то вроде
https://arxiv.org/abs/2010.11929 An Image is Worth 16x16 Words
https://arxiv.org/abs/2111.15664 donut
>>/967/
Я считаю, что основой нашей культуры стал культ Холокоста, в который входит и истерическая борьба с "традиционной моралью", что ты выражаешь нападками на кодекс Хейса, потрясая седой гривой, будто снова лето любви и СПИД ещё не изобрели.
Но да ладно. Фундаментально – потому что те, кому это не нравится, недостаточно любят политику.
Разумеется, это рационально с их стороны.
https://richardhanania.substack.com/p/why-is-everything-liberal