в NeuroShell 2) Чтобы сократить


Многослойный алгоритм МГУА (реализованный в NeuroShell 2) Чтобы сократить время вычислений, следует уменьшить количество опорных функций (и количество входных переменных), используемых для построения оцениваемых моделей. Чтобы сделать это, необходимо перейти от одноступенчатой процедуры отбора моделей к многослойной процедуре. Как это делается? Для начала, возьмем первые две входные переменные и создадим на их основе простой набор опорных функций. Например, если первые две входные переменные обозначить как X1 и X2, то набор опорных функций мог бы выглядеть так: {1, X1, X2, X1*X2} (1 соответствует константе). Теперь проверим все возможные модели, составленные из этих функций, и выберем наилучшую. (Любую из проверяемых моделей называют Кандидатом в призеры.) На следующем шаге возьмем другую пару входных переменных и повторим процедуру, получая другого кандидата в призеры со своим собственным значением критерия отбора. Сделав то же самое для всех возможных пар из n входных переменных, получим n*(n-1)/2 кандидатов в призеры, каждый со своим собственным значением критерия отбора. Теперь сравним эти значения и выберем несколько кандидатов в призеры, обеспечивающих наилучшую аппроксимацию выходной переменной. Обычно выбирают заранее оговоренное число F наилучших кандидатов в призеры, которые хранятся в первом слое сети и сохраняются для следующего слоя. Эти F отобранных кандидатов называют Призерами. Призеры используются в качестве входных переменных для построения следующего слоя сети. Первоначальные входные переменные первого слоя также могут быть использованы в качестве входов этого нового слоя. В построении следующего слоя участвуют полиномы с этим расширенным набором входов. Заметим, что так как некоторые входы уже представляют собой полиномы, следующий слой может содержать очень сложные полиномы. Процедура построения нового слоя в МГУА повторяется, пока критерий отбора продолжает уменьшаться. Вариант алгоритма МГУА, реализованный в NeuroShell 2, проверяет, так ли это, и продолжает либо прекращает тренировку. Могут быть также и другие условия, влияющие на то, когда тренировка будет остановлена. За дальнейшей информацией обратитесь к разделам Параметры тренировки Простого МГУА и Параметры тренировки Расширенного МГУА. Работа этого алгоритма имеет прямые аналогии с работой садовника в процессе селекции нового гибрида. Садовник высевает семена, ждет, пока растения вырастут, и выбирает несколько растений, для которых желаемое свойство является наиболее ярко выраженным. Затем он собирает семена у выбранных растений и высевает их вновь, выращивая второе поколение. Затем он выбирает несколько растений из этого поколения, собирает семена, снова высевает их и т.д., пока не получит растение, обладающее желаемым свойством в полной мере.
Содержание раздела