>>/3665/
хочется натренировать сетку заточеную на причину-следствие.
для этого следует разметить тест на такое:
{ actor1; group1 }{ actor1; group2 }{ actor1; group3 }(Alice) { a1 -> p1; g1 }{ a1 -> i1 -> p1; g2 }(pushed) { patient1; group1 }{ instrument1; group2 }(Bob) into { patient1; group2 }{ instrument1; group3 }{ actor1; group4 }(the pool), { a1-> i1 -> i2 -> p1; g3 }{ a1-> i1 -> p1; g4 }(splashing) { instrument2; group3 }{ instrument1; group4 }(water) over { patient1; group3 }{ patient1; group4 }(Charlie)'s boots.
по существу у нас тут отмечены агенты, их действия, и вся структура предложения разбита на линейные последовательности, т.к. это трансформеру будет легче учить - он уже спешно линейный язык осваивает. на размеченом тексте я хочу натренировать токенайзер который чисто улавливает агентов и действия. затем с ним трансформер который будет предсказывать действия. у меня есть промты чтоб 3.5 мог подобную разметку сделать над текстом, но лимит токенов как-то ограничивает то какие истории мы можем генерировать.
помимо этого я мучаюсь вопросом а нужна ли нам спатиальная информация? с одной стороны, существует математика, которая чисто символьная. с другой стороны математику зачастую проще понять с геометрическими рассуждениями.
ещё жпт можно запромтать чтоб он писал планы действий, пошагово. может на осоновании их делать разметку? короче нужна серьёзная допомога, одному ничего толкового не сделать.