Главная Нелинейные системы управления [0] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [ 153 ] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] где X - предъявляемые для классификации ситуации; X - пространство ситуаций с классами Х, (л) - условная плотность распределения ситуаций класса Х,,; - априорная вероятность ситуаций в X,,; F, - функция потерь, характеризующая ошибочность отнесения ситуации класса к классу Х„; k, т \,2.....М - число не известных заранее классов, причем функция потерь F,,m в классическом подходе выбирается либо постоянной, либо ее можно представить в виде (11.193) где с - фиксированный вектор параметров. Границы между классами Хд и Х„ определяются с помощью характеристических функций типа .,. 1 при хХ- (11.194) О при хХ, также зависящих от вектора параметров с. Подставляя (11.193) и (11,194) в (11.192), имеем параметрическую форму записи фуш<ции среднего риска R (с): /? (О = 2 2- f ®m {X, о f (.X. (X) dx. (11.195) *= 1 m= 1 3 Учитывая, что в (11.195) средний риск R (с) зависит только от вектора параметров с, можно получить необходимые условия минимума среднего риска за счет приравнивания градиента R {с) по с нулю: v-./?(:7)-. 2 S \®mix,l)F,„Лx,7)P,pЛx)dx- +S S [l®m(x.c)F,,,,,{x. c,P,,p{x)dx. (11.196) * 1 m= 1 з[ Второе слагаемое в (11.196) определяет чувствительность характеристических функций (х, с) и, по существу, граничную или разделяющую любые классы Х; и Х„ функцию fi,n{x,7) = lF„{x,7)~F,{x,7)]PnPAx)=G. (11.197) no знаку которой можно определить принадлежность ситуаций X к классу X, или Х„ (соответственно прн /,,„ (х, с) < О или {х, с) > 0) Результатом решения уравнения (11.196) является экстремальное значение вектора параметров с. Как правило, решение такого нелинейного уравнения в общем виде затруднено, поэтому экстремальное значение вектора с определяется с помощью итеративных процедур в виде разностных уравнений, связывающих предшествующие и последующие дискретные значения с: с 1п1 = с In - 11 - Г(п) V/? (с[п-11), (11.198) или в виде дифференциальных уравнений в случае непрерывных c(t) dc{t)/dt = ~ГЦ) VR Ш), (11.199) где Г[п] и Г(/) - квадратные матрицы, определяющие шаг итерации и сходимость значений вектора с к с*. В случае разделения пространства ситуаций X только на два класса Xj и Xj средний риск R (с) равен R (7) - j F„ (х, 7) Pi р, (X) dx + j F,, (X, 7) Рг P2 (л) dx X, X, + f Fi,(x. 7)P,Pi()rf + J F,,{x,~c)P2Pix)dx. (11.200) Необходимые условия минимума среднего риска \Г/?(О-0. (11.201) Отсюда разделяющая функция /, , (х, с) получает следующий вид: fuAx, c) = [f„ (X, 7)-F,i{x, 7)]РурАх)\- + [Ргг {X, 7) - F,, {хЛ}] Рг Р. [х) =0; (11.202) правило решения об отнесении ситуаций к классам выглядит так: если /i,2(x, с)<0, то X относится к классу Xi, 03) если /12 (х, с) > О, то X относится к классу Хг. (11.207) В классическом подходе используются постоянные функции потерь Fn, F]2, /21. в виде /12 (X, Г)- Л12>0; f„(. )=и<0; (Л 204) /21 {X, Г) = Л21 > 0; с) < О, поэтому разделяющую функцию /12 (х, с) можно записать иначе: /12 (, с) = (Л„ - Л12) Я, pi (х) + (Л21 - Л22) Р2 Р2 (X) = О (11.205) или ih М (21-22)2 (11 2061 где Pj (А:)/р2 {х)-отношение правдоподобия / (л:), ~"р - фиксированный порог h. Следовательно, правило классификации (11.203) можно теперь представить таким образом: если / (х) > Л, то X g если / (л:) < Л, то х g Xz. Отсюда классическое байесовское правило классификации заключается в вычислении отношения правдоподобия / (л:) и сравнении его с фиксированным порогом h, который зависит от выбранного правила оценки априорных вероятностей Я, и Р. Нетрудно видеть, что отсутствие априорной информации о значениях Р и Р или информации об отношении правдоподобия лишает возможности использовать классический подход в задачах классификации и распознавания образов. В случае такой неопределенности эффективным средством решения задач оказывается применение методов обучения. При этом с помощью методов обучения удается либо аппроксимировать неизвестную заранее разделяющую функцию и затем адаптив но отслеживать ее отклонения от действительной разделяющей функции, либо восстановить из опыта не известную заранее совместную плотность распределения ситуаций по классам. Несмотря иа то что включение обучения в классическую байесовскую процедуру классификации замедляет работу системы, применение обучения оправдывается снижением требований к объему априор1ЮЙ информации в задаче Наиболее общие алгоритмы обучения классификации в вероятностной постановке разработаны Я. 3. Цыпкиным [7] как для обучения с поощрением, так и для самообучения. [0] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [ 153 ] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] 0.0014 |