Вестник МГТУ, 2023, Т. 26, № 4.

Пашенцев С. В. Нейронные сети как инструмент совершенствования математической модели. Определим архитектуру сети, на которой будут работать эти данные. Для этого сделаем выбор File/New/NetWork, и на мониторе появится дочерняя форма, показанная на рис. 4 (слева), она озаглавлена Create NetWork. Выберем тип сети - многослойный персептрон (MultiLayer Perseptron), повторяем число входов (16) и число выходов (1), число слоев (No Layers) (4), после чего справа внизу заполняем размеры скрытых слоев сети: Layer 2 = 8, Layer 3 = 3. Эти цифры обозначают числа нейронов в двух скрытых слоях. После выбора Create (создать) получим графическую схему созданной сети (рис. 4, справа). Выполнив эти процедуры, можно перейти непосредственно к обучению сети. Рис. 4. Процедура создания архитектуры сети (слева) и ее графический вид (справа) Fig. 4. The procedure for creating the network architecture (left) and its graphical view (right) Обучение сети на сформированном наборе данных В процессе обучения сети производим выбор по цепочке Train/MultiLayer/Back Propogation. В результате на экране появляется дочерняя форма Back Propogation (рис. 5, справа), которая позволяет выбрать параметры процесса обучения. File Edit fTrain | Statistics Run Options Window Help Рис. 5. Включение режима обучения сети и выбора способа совершенствования переходных матриц Fig. 5. Enabling the network training mode and choosing a way to improve the transition matrices Числа эпох (циклов) обучения и скорости обучения выберем равными 1000 и 0.01 соответственно. Остальные параметры оставим пока по умолчанию. Важными для результатов обучения являются переключатели (внизу слева) Shuffle Cases (перемешивание наборов) и Cross verification (перекрестное использование обучающих и верификационных наборов). Перемешивание наборов при обучении повышает надежность последующих прогнозов, полученных с помощью обученной таким образом сети. Определив обучающие параметры, нажимаем кнопку Train и запускаем процесс обучения сети (Bishop, 2006, Николенко и др. , 2018 ). 476

RkJQdWJsaXNoZXIy MTUzNzYz