Главная  Полное построение алгоритма 

[0] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [ 29 ] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117]

мент, который определяет случайную переменную Т, время работы алгоритма А. Распределение Т неизвестно. Для наших целей не требуется обязательно статистически оценивать все распределение Т. Будет достаточно оценить значения некоторых свойств распределения, а именно математическое ожидание и дисперсию.

Общая процедура оценки свойства 6 распределения следующая. Возьмем ряд наблюдений (Xi, Хг, - . . , Х„) за интересующей нас случайной переменной X. Построим функцию F {Xi, Хг, .... Х„), область определения которой есть множество наблюдений, а область значений - множество возможных значений свойства 6. Такая функция называется оценкой 6 и сама представляет собой случайную переменную (почему?).

Как мы выбираем конкретную функцию в качестве оценки? Поскольку имеется много возможностей выбора, следует дать некоторый критерий, гарантирующий выбор хорошей оценки. Интуитивно самый очевидный критерий состоит в выборе для оценки такой функции F, собственное распределение *) которой сильно концентрируется вокруг истинного значения 8. Рассмотрим три конкретные характеристики хороших оценок, которые отражают это интуитивное требование.

Случайная переменная F является несмешанной оценкой 6, если Е [F]=6. Существуют очень простые несмещенные оценки для математического ожидания и дисперсии любой случайной переменной. Оценка

Х(Х„ .... x„) = lgx,

является несмещенной оценкой математического ожидания Е [X]. Это следует из

£[Х] = £

• ; (см. упр. 2.4.И)

п{Е\Х] (почему?)

. =£[Х].

Так как var [XI определяется через Е [X] (см. уравнение (2) и упр. 2.4.12), выбранная для var [X] оценка будет зависеть от того, знаем ли мы Е [X] или Е [Х] должно быть оценено. Если значение Е [X] известно, то оценку

G(x„x„)=i-X(.-

i= 1

естественно подсказывает определение var [X]. Легко установить, что 1) Напоминаем, что F - случайная переменная!



оценка G не смещена:

E[G] = E

-Xe[{x,~-e[X]Y]-

= г S m - 2£ [X,] £ [X] + (E [X])=) =

(= I

== I nZ: [X=]-п{Е [Х]Г = var [X].

При этом используются результаты упр. 2.4.12. Если значение Е IX] неизвестно, как обычно и бывает, то оценка

SHXi, .... х„) = Х(«-

является несмещенной оценкой для var [Х]. Доказательство этого оставлено в качестве упражнения.

Согласующаяся оценка G(Xi, . . . , Х„) свойства 6 - это оценка, значение которой будет как угодно близко к Э с вероятностью, приближающейся к 1, когда Более формально, С(Х], . . . , Хп) является согласующейся оценкой для 6, если

lim P{G(Xi, XJ -е<Е} = 1 для любого е > 0.

П со

Согласующаяся характеристика отражает наше интуитивное ожидание того, что, чем больше выборка, тем она более надежна. Это интуитивное предположение математически подтверждается одним из самых важных результатов в теории вероятностей.

Теорема 2.4.1. (слабый закон больших чисел). Пусть Xj, ... , Х„ - независимые случайные переменные и (а) E[Xi]=m., (б) var [Xj]=9= для t=l, 2, . . . , п. Если

X(Xi, .... Х„)= -Х,-,

£=1

то для любого е>0

lim Р{Х-т<Е}=1.

Более сильная формулировка этой теоремы позволяет опустить условие (б) конечности дисперсии. Из закона больших чисел немедленно следует, что X - согласующаяся оценка математического ожидания случайной переменной.

Несмещенная оценка с минимальной дисперсией - это несмещенная оценка, дисперсия которой наименьшая среди всех несмещенных оценок или, возможно, среди всех несмещенных оценок определенного рода. Дисперсию часто можно рассматривать как меру точности оцен-



ки. Чем меньше дисперсия, тем больше шансы, что значение оценки будет близко к значению свойства, которое она оценивает. Таким образом, малая величина дисперсии является желательной характеристикой оценки.

Пример. Время работы динамически выполняемого алгоритма измеряется с помощью двух системных часов. Показания первых часов Ti, вторые часы регистрируют время Т. Те и другие часы неточны в связи с наличием шумов в системе. Но природа шума такова, что каждые часы с равной вероятностью дают отклонения в ббльшую и меньшую сторону на одну и ту же величину. Поэтому

Е [Ti]=E [Т]=Т = истинное время работы.

Таким образом, и первые, и вторые часы несмещенные, но известно, что их точность различна, т. е.

var [TiJvar [TJ.

Предположим, что var [ri]<var [TJ.

Какую из величин, Ti или Та, следует принять для оценки Т? Почему бы не использовать и те и другие часы для получения некоторого взвешенного среднего? Соответственно пусть

при некоторой константе Osl, которая пока что не определена. Ясно, что оценка H(Ti, Га) несмещенная, так как

Е [msE lTi]+{l-s)E [Til (см. упр. 2A.U) = sT+(l-s)T=T. Константа s будет выбрана так, чтобы получить оценку с наименьшей возможной дисперсией среди всех оценок, записанных в форме простого взвешенного среднего от Ti и Та.

Чтобы найти значение s, которое минимизирует var [Я], поступаем следующим образом, прибегая к стандартному приему дифференциального исчисления:

var[] = svar[Ti] + (l-s)2var[T2] (см. упр. 2.4.13); var [Я] = 2s var [Т] + (-2 + 2s) var [Т,] = 0; var [Та] = s var [TJ + s var [T];

var [Га] . varlTil + varlTaj "

Нетрудно проверить, что это значение s действительно минимизирует var [Я].

Не удивляет ли то, что мы не берем значение s= 1, т. е. что для оценки Т мы не пользуемся только Ti? В конце концов, var [Ti]<var [Та], и поэтому у первых часов большая точность, чем у вторых. Но тогда не учитъшается важный факт, что Та - также несмещенная оценка, й ее значение содержит информацию о времени работы Т. Конечно,



[0] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [ 29 ] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117]

0.0009