В последнее время успешность моделей с трансформерами — которые суть особые вспомогательные нейросети, расширяющие возможность генеративного ИИ воспринимать длинные информационные ряды, — начала склонять ряд комментаторов к допущению, что GPT-4 (особенно в версии «o») и ряд сопоставимых с ним по сложности систем всё-таки могут претендовать на некоторое, пусть и не подлинно человеческое, понимание пропускаемой через них информации. Эту гипотезу и взялись проверить в MIT, предложив генеративной модели две практические задачи: провести условный автомобиль по улицам Нью-Йорка от одной точки до другой — и сыграть в «Отелло», далеко не самую сложную игру с компактным набором внятных правил. Собственно, целью эксперимента и было установить, способна ли система понимать предложенные ей правила, восстанавливая по ним логику функционирования иных, хотя и схожих систем, — или же она даже при наличии трансформеров не более чем Excel-сортировщик, только производящий упорядочение огромной базы данных сразу по множеству неоднозначных параметров.
Увы (хотя для кого-то, наверное, всё же ура), соответствующим истине оказалось именно второе предположение. Да, поскольку трансформеры натренированы образовывать связи между далеко отстоящими один от другого информационными блоками (и потому, в частности, модели для ИИ-рисования с трансформерами лучше воспринимают длинные витиеватые подсказки), какая-то картина этих связей в их «сознании» — в виде весов на входах их перцептронов — воспроизводится. Но она соответствует реальной лишь до тех пор, пока от системы требуют воспроизводить нечто в целом адекватное именно тому набору данных, на котором она обучалась. Исследователи приводят такой пример: на полной карте Нью-Йорка (с его строгой прямоугольной планировкой: «на север с юга идут авеню, на запад с востока — стриты», как писал поэт) ИИ великолепно справлялся с задачей проложить маршрут для автомобиля из точки А в точку Б, поскольку обучался на огромном массиве выстраиваемых живыми водителями маршрутов. Но стоило экспериментаторам условно перекрыть всего лишь примерно 1% проездов, как соответствие проложенного маршрута реальности разом упало с почти 100% до 67%.
Иными словами, цифровая система не поняла простейших на человеческий взгляд правил — вроде «чтобы объехать перекрытый участок, проследуй на один квартал дальше, поверни там, а потом сделай обратный поворот и вернись на прежнюю трассу». И широко разрекламированные сегодня «рассуждающие» (reasoning) модели — они, увы, лишь имитируют логику рассуждений, не разбираясь в ней как таковой: нечем им пока разбираться.
Ну собственно о чем я и говорил ранеее , весь нынешний "ИИ " , это по сути Excel на стероидах )
Увы (хотя для кого-то, наверное, всё же ура), соответствующим истине оказалось именно второе предположение. Да, поскольку трансформеры натренированы образовывать связи между далеко отстоящими один от другого информационными блоками (и потому, в частности, модели для ИИ-рисования с трансформерами лучше воспринимают длинные витиеватые подсказки), какая-то картина этих связей в их «сознании» — в виде весов на входах их перцептронов — воспроизводится. Но она соответствует реальной лишь до тех пор, пока от системы требуют воспроизводить нечто в целом адекватное именно тому набору данных, на котором она обучалась. Исследователи приводят такой пример: на полной карте Нью-Йорка (с его строгой прямоугольной планировкой: «на север с юга идут авеню, на запад с востока — стриты», как писал поэт) ИИ великолепно справлялся с задачей проложить маршрут для автомобиля из точки А в точку Б, поскольку обучался на огромном массиве выстраиваемых живыми водителями маршрутов. Но стоило экспериментаторам условно перекрыть всего лишь примерно 1% проездов, как соответствие проложенного маршрута реальности разом упало с почти 100% до 67%.
Иными словами, цифровая система не поняла простейших на человеческий взгляд правил — вроде «чтобы объехать перекрытый участок, проследуй на один квартал дальше, поверни там, а потом сделай обратный поворот и вернись на прежнюю трассу». И широко разрекламированные сегодня «рассуждающие» (reasoning) модели — они, увы, лишь имитируют логику рассуждений, не разбираясь в ней как таковой: нечем им пока разбираться.
Ну собственно о чем я и говорил ранеее , весь нынешний "ИИ " , это по сути Excel на стероидах )