Институт вычислительной математики
и математической геофизики



Международная конференция по вычислительной математике
МКВМ-2004


Тезисы докладов


Статистическое моделирование и методы Монте-Карло

Алгоритмическое обеспечение задач управления экспериментом с учетом апостериорной информации

Наумов А.А., Сенич В.В.

Новосибирский Государственный Технический Университет (Новосибирск)

documentclass [12pt]{article} egin{document} В работе исследованы алгоритмы эффективного управления экспериментом. Проведен сравнительный анализ алгоритмов с фиксированным спектром для синтеза G- эффективных стратегий. Предложены схемы выбора начальных стратегий экспериментов. Показано преимущество начальных стратегий со спектрами классических оптимальных планов экспериментов по сравнению с произвольно выбранными спектрами. Приведены постановки задач $Ф$- эффективного управления экспериментами, которые могут быть решены предложенными алгоритмами.

ПОСТАНОВКА ЗАДАЧИ При исследовании классических оптимальных планов нами были получены следующие результаты:

- Использование классических оптимальных планов экспериментов на практике может приводить к неожиданным результатам: фактическая эффективность планов (в смысле фактических апостериорных значений дисперсий оценок параметров или регрессионной модели) может быть намного меньше ожидаемой и гарантируемой теоремой эквивалентности. - В свою очередь, неоптимальный план эксперимента может быть более эффективным, чем оптимальный. - Неэффективность оптимального плана может быть более существенной, если учесть, что базисный вектор регрессионной модели $f(x)$, как правило, неизвестен. - По всей видимости, одним из выходов в данной ситуации может служить использование последовательного планирования экспериментов, например, на симплексных структурах или организация последовательной схемы экспериментирования с использованием апостериорной дисперсии оценок функции отклика. - В связи со всем вышесказанным, каталогами классических оптимальных планов экспериментов следует пользоваться с определенной осторожностью. - Очевидно, выявленные проблемы практического использования классических оптимальных планов экспериментов будут (возможно, еще в большей степени) присущи и задачам синтеза оптимальных планов экспериментов для более сложных моделей и ситуаций (например, для динамических систем, ковариационных моделей, дисперсионных моделей и так далее). - Данная работа представляет собой продолжение данных исследований, и затрагивает следующий шаг -- разработка алгоритмов эффективного управления экспериментом, предназначенных для повышения эффективности методов управления экспериментами.

2. ЭФФЕКТИВНОЕ УПРАВЛЕНИЕ ЭКСПЕРИМЕНТОМ 2.1. ДВЕ МОДЕЛИ ЭКСПЕРИМЕНТИРОВАНИЯ

Продолжаем рассматривать подход к организации экспериментов, который был назван как эффективное управление экспериментом. По своей сути такой подход представляет собой последовательную схему экспериментирования. Были рассмотрены две основные ситуации (и соответствующие им формальные выкладки), которые возникают (или могут возникнуть) при экспериментировании

2.2. ФОРМАЛИЗАЦИЯ ЗАДАЧИ УПРАВЛЕНИЯ ЭКСПЕРИМЕНТОМ Поскольку дисперсионная матрица оценок параметров $M^{ - 1}(xi ,y) = (F_1^T D_2 ^{ - 1}F_1 )^{ - 1}$, $M(xi ,y) = F_1^T D_2^{ - 1} F_1 = sumlimits_{i = 1}^m {hat {sigma }_ar {y}^{ - 2} (x_i )f(x_i )f^T(x_i )} $ и соответствующая ей апостериорная дисперсия оценки функции отклика $ ilde {d}_f (x,xi ,y)$ зависят как от стратегии эксперимента $xi $, так и от результатов наблюдений за выходной переменной y, то оптимальной априорной стратегии управления экспериментом не существует. Другими словами, в общем случае нельзя построить оптимальный план экспериментов (в классическом понимании) до проведения самих экспериментов.

Была формализована задача по нахождению (синтезу) $xi _{(i)}^ast $ эффективной стратегии экспериментирования (управления экспериментом) на i- ом шаге.

2.3. АЛГОРИТМЫ СИНТЕЗА СТРАТЕГИЙ ЭКСПЕРИМЕНТИРОВАНИЯ

Рассмотрим алгоритмы построения стратегий $xi _{(i)}^ast $. Основой рассматриваемых ниже алгоритмов будут служить как модификации известных классических алгоритмов, так и вновь разработанные и исследованные авторами. Напомним, что по сравнению с классическим оптимальным планом эксперимента эффективная стратегия не может быть построена только по априорным данным. Она синтезируется на рекуррентной основе, в одной цепочке (последовательно) с выполняемыми экспериментами. Это значит, что, во-первых, такие стратегии не могут быть затабулированы, как это сделано, например, для классических оптимальных планов. И, во-вторых, даже при условии, что базисный вектор модели известен точно и соблюдается условие постоянства дисперсии ошибок измерений во всех точках области экспериментирования X, задача синтеза эффективной стратегии имеет бесконечное множество решений (реализаций). Каждая такая стратегия зависит от результатов проведенных экспериментов и, поэтому, является случайной реализацией некоторой случайной величины из бесконечного множества таких реализаций.

2.3.1. АЛГОРИТМЫ ПОСТРОЕНИЯ ЭФФЕКТИВНЫХ СТРАТЕГИЙ С ФИКСИРОВАННЫМ СПЕКТРОМ Равновзвешенный (параллельный) алгоритм экспериментирования AUE(FS) Суть этого алгоритма состоит в том, что эксперименты на фиксированном спектре стратегии будут выполняться каждый раз так, что на очередном шаге добавляется в точности одно наблюдение в каждой точке спектра. Таким образом, в конце каждого шага алгоритма количество экспериментов, проведенных в каждой точке спектра стратегии, одинаково. Такая схема проведения экспериментов находит применение в медицине, биологии, химии и других областях науки и техники, в которых в связи с особенностями экспериментов выгоднее (дешевле, экономичнее) организовать и запустить серию экспериментов единовременно. В связи с отмеченной особенностью данного алгоритма, стратегию эксперимента удобно представить следующим образом: $$ xi _i = left( {matrix {x_1 } & {x_2 } & {...} & {x_m } {n_i } & {n_i } & {...} & {n_i } endmatrix } ight) $$ $ n_i = const $ , $ N_{(i)} = n_i m $ Здесь $ xi _{(i)} $ - стратегия экспериментирования на i- ом шаге, $ x_1 ,x_2 ,...,x_m $ - фиксированные точки спектра, $ N_{(i)} $ - общее количество экспериментов, которые будут выполнены к окончанию шага с номером i. Стратегия $ xi _{(i + 1)}^0 $ будет отличаться от стратегии $ xi _{(i)}^0 $ тем, что в ней $ n_{i + 1} = n_i + 1 $ , $ N_{(i + 1)}^0 = n_i m + m $ Представим данный алгоритм в виде последовательности шагов. Рассмотрим, без умаления общности, работу алгоритма на примере построения G- эффективных стратегий. Очевидным образом рассмотренные в настоящем разделе алгоритмы обобщаются на более общий случай Ф -- эффективного управления экспериментами.

Алгоритм AUE(FS). Шаг 1. Выбираются пороговое значение $ ilde d^* (x) $ для верхней границы доверительного интервала апостериорной оценки $ ilde d_f (x,xi ,y) $ и доверительная вероятность $ gamma = 1 - alpha $ (для $alpha$ - доверительного интервала оценки этой дисперсии). Шаг 2. Фиксируются точки спектра $ x_1 ,x_2 ,...,x_m $ начальной стратегии $ xi _{(0)}^* $ (т.е. стратегии $ xi _{(i)}^* $ для i=0) в области X (в области экспериментирования). Количество точек спектра и их общее расположение должно быть таким, чтобы была возможность оценить параметры регрессионной модели (стратегия $ xi _{(0)}^* $ должна быть невырожденной для данной регрессионной модели). Например, в качестве $ xi _{(0)}^* $ можно выбрать стратегию со спектром классического G- оптимального плана и положить $ n_1 = 2 $ Шаг 3. В соответствии с планом $ xi _{(i)}^* $ проводятся эксперименты на объекте. Шаг 4. На основе полученных данных находится оценка $ ilde d_f (x,xi _{(i)}^0 ,y_{(i)}^0 ) $ и $alpha$ - доверительный интервал $ ( ilde d_f (x,xi _{(i)}^{*0} ,y_{(i)}^0 ) - Delta ilde d^ - (x,xi _{(i)}^{*0} ,y_{(i)}^0 ); ilde d_f (x,xi _{(i)}^{*0} ,y_{(i)}^0 ) + Delta ilde d^ + (x,xi _{(i)}^{*0} ,y_{(i)}^0 )) $ для этой оценки. Шаг 5. Если найдется точка x в области X$_{S(i)p}$, что для нее выполнится неравенство $ ilde d(x,xi _{(i)}^{*0} ,y_{(i)}^0 ) + Delta ilde d^ + (x,xi _{(i)}^{*0} ,y_{(i)}^0 ) > ilde d^* (x) $ , то значение i увеличивается на единицу (i=i+1) и строится новая стратегия $ xi _{(i + 1)}^{*0} $ , для которой $ n_{i + 1} = n_i + 1, $ $ N_{(i + 1)}^0 = n_i m + m $ и осуществляется переход на Шаг 3, иначе - на Шаг 6. Шаг 6. Конец работы алгоритма AUE(FS).

Алгоритм взвешенного экспериментирования AWE(FS).

Этот алгоритм является модификацией предыдущего алгоритма и работает следующим образом. Эксперименты проводятся тоже последовательно, но на каждом шаге добавляется только одно наблюдение в одной из точек спектра. Таким образом, в конец каждого шага алгоритма количество экспериментов в каждой точке спектра может быть неодинаковым.

3. ВЫБОР НАЧАЛЬНЫХ СТРАТЕГИЙ

Для получения спектра начальной стратегии $xi _{(0)}^* $ можно воспользоваться следующими приемами. 1. Выбрать в качестве спектра стратегии $xi _{(0)}^* $ спектр соответствующего классического оптимального плана: 1.1. Для этого можно использовать таблицы известных оптимальных планов из справочников (выбираем только координаты точек спектра планов); 1.2. Можно построить классический оптимальный план с помощью известных алгоритмов и программ для ЭВМ; 1.3.Можно рассчитать координаты точек спектра классического оптимального плана по методу, разработанному нами и близкому по идее методу профессора Кортанека для синтеза оптимальных планов; 2. В качестве спектра начальной стратегии можно выбрать произвольный невырожденный спектр (с количеством точек не меньше, чем число параметров в модели), например, спектр с равномерно распределенными в области экспериментирования X точками. В результате моделирования получили, что, в подавляющем числе случаев стратегии, построенные на основе спектра оптимального классического плана эксперимента имеют средние значения характеристик более предпочтительные, чем стратегии с равномерным спектром. end{document}

Примечание. Тезисы докладов публикуются в авторской редакции



Ваши комментарии
Обратная связь
[ICT SBRAS]
[Головная страница]
[Конференции]

© 1996-2000, Институт вычислительных технологий СО РАН, Новосибирск
© 1996-2000, Сибирское отделение Российской академии наук, Новосибирск
    Дата последней модификации: 06-Jul-2012 (11:52:06)