Главная  Нелинейные системы управления 

[0] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [ 153 ] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166]

где X - предъявляемые для классификации ситуации; X - пространство ситуаций с классами Х, (л) - условная плотность распределения ситуаций класса Х,,; - априорная вероятность ситуаций в X,,; F, - функция потерь, характеризующая ошибочность отнесения ситуации класса к классу Х„; k, т \,2.....М - число не известных

заранее классов, причем функция потерь F,,m в классическом подходе выбирается либо постоянной, либо ее можно представить в виде

(11.193)

где с - фиксированный вектор параметров.

Границы между классами Хд и Х„ определяются с помощью характеристических функций типа .,.

1 при хХ-

(11.194)

О при хХ,

также зависящих от вектора параметров с.

Подставляя (11.193) и (11,194) в (11.192), имеем параметрическую форму записи фуш<ции среднего риска R (с):

/? (О = 2 2- f ®m {X, о f (.X. (X) dx. (11.195)

*= 1 m= 1 3

Учитывая, что в (11.195) средний риск R (с) зависит только от вектора параметров с, можно получить необходимые условия минимума среднего риска за счет приравнивания градиента R {с) по с нулю:

v-./?(:7)-. 2 S \®mix,l)F,„Лx,7)P,pЛx)dx-

+S S [l®m(x.c)F,,,,,{x. c,P,,p{x)dx. (11.196)

* 1 m= 1 з[

Второе слагаемое в (11.196) определяет чувствительность

характеристических функций (х, с) и, по существу, граничную или разделяющую любые классы Х; и Х„ функцию

fi,n{x,7) = lF„{x,7)~F,{x,7)]PnPAx)=G. (11.197)



no знаку которой можно определить принадлежность ситуаций X к классу X, или Х„ (соответственно прн /,,„ (х, с) < О

или {х, с) > 0)

Результатом решения уравнения (11.196) является экстремальное значение вектора параметров с. Как правило, решение такого нелинейного уравнения в общем виде затруднено,

поэтому экстремальное значение вектора с определяется с помощью итеративных процедур в виде разностных уравнений, связывающих предшествующие и последующие дискретные значения с:

с 1п1 = с In - 11 - Г(п) V/? (с[п-11), (11.198)

или в виде дифференциальных уравнений в случае непрерывных c(t)

dc{t)/dt = ~ГЦ) VR Ш), (11.199)

где Г[п] и Г(/) - квадратные матрицы, определяющие шаг

итерации и сходимость значений вектора с к с*.

В случае разделения пространства ситуаций X только на

два класса Xj и Xj средний риск R (с) равен

R (7) - j F„ (х, 7) Pi р, (X) dx + j F,, (X, 7) Рг P2 (л) dx

X, X,

+ f Fi,(x. 7)P,Pi()rf + J F,,{x,~c)P2Pix)dx. (11.200)

Необходимые условия минимума среднего риска

\Г/?(О-0. (11.201)

Отсюда разделяющая функция /, , (х, с) получает следующий вид:

fuAx, c) = [f„ (X, 7)-F,i{x, 7)]РурАх)\-

+ [Ргг {X, 7) - F,, {хЛ}] Рг Р. [х) =0; (11.202) правило решения об отнесении ситуаций к классам выглядит

так:

если /i,2(x, с)<0, то X относится к классу Xi, 03) если /12 (х, с) > О, то X относится к классу Хг.



(11.207)

В классическом подходе используются постоянные функции потерь Fn, F]2, /21. в виде

/12 (X, Г)- Л12>0; f„(. )=и<0; (Л 204) /21 {X, Г) = Л21 > 0; с) < О,

поэтому разделяющую функцию /12 (х, с) можно записать иначе:

/12 (, с) = (Л„ - Л12) Я, pi (х) + (Л21 - Л22) Р2 Р2 (X) = О (11.205) или

ih М (21-22)2 (11 2061

где Pj (А:)/р2 {х)-отношение правдоподобия / (л:), ~"р

- фиксированный порог h. Следовательно, правило классификации (11.203) можно теперь представить таким образом:

если / (х) > Л, то X g

если / (л:) < Л, то х g Xz.

Отсюда классическое байесовское правило классификации заключается в вычислении отношения правдоподобия / (л:) и сравнении его с фиксированным порогом h, который зависит от выбранного правила оценки априорных вероятностей Я, и Р. Нетрудно видеть, что отсутствие априорной информации о значениях Р и Р или информации об отношении правдоподобия лишает возможности использовать классический подход в задачах классификации и распознавания образов. В случае такой неопределенности эффективным средством решения задач оказывается применение методов обучения. При этом с помощью методов обучения удается либо аппроксимировать неизвестную заранее разделяющую функцию и затем адаптив но отслеживать ее отклонения от действительной разделяющей функции, либо восстановить из опыта не известную заранее совместную плотность распределения ситуаций по классам.

Несмотря иа то что включение обучения в классическую байесовскую процедуру классификации замедляет работу системы, применение обучения оправдывается снижением требований к объему априор1ЮЙ информации в задаче

Наиболее общие алгоритмы обучения классификации в вероятностной постановке разработаны Я. 3. Цыпкиным [7] как для обучения с поощрением, так и для самообучения.



[0] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [ 153 ] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166]

0.0012