ÔÅÄÅÐÀËÜÍÎÅ ÀÃÅÍÒÑÒÂÎ ÏÎ ÎÁÐÀÇÎÂÀÍÈÞ
Ãîñóäàðñòâåííîå îáðàçîâàòåëüíîå ó÷ðåæäåíèå âûñøåãî ïðîôåññèîíàëüíîãî îáðàçîâàíèÿ Ñ...
16 downloads
259 Views
353KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
ÔÅÄÅÐÀËÜÍÎÅ ÀÃÅÍÒÑÒÂÎ ÏÎ ÎÁÐÀÇÎÂÀÍÈÞ
Ãîñóäàðñòâåííîå îáðàçîâàòåëüíîå ó÷ðåæäåíèå âûñøåãî ïðîôåññèîíàëüíîãî îáðàçîâàíèÿ ÑÀÍÊÒ-ÏÅÒÅÐÁÓÐÃÑÊÈÉ ÃÎÑÓÄÀÐÑÒÂÅÍÍÛÉ ÓÍÈÂÅÐÑÈÒÅÒ ÀÝÐÎÊÎÑÌÈ×ÅÑÊÎÃÎ ÏÐÈÁÎÐÎÑÒÐÎÅÍÈß
МЕТОДЫ ТЕХНИЧЕСКОЙ ДИАГНОСТИКИ Методические указания к выполнению практических работ № 7–13
Ñàíêò-Ïåòåðáóðã 2006
Составитель кандидат технических наук, доцент В. А. Голубков Рецензент кандидат технических наук, доцент М. А. Волохов
Даны методические указания к выполнению практических работ № 7–13 по курсу «Методы технической диагностики». Предназначены для студентов специальности 200102 – Приборы и методы контроля качества и диагностики. Подготовлены кафедрой электротехники и рекомендованы к изданию редакционно-издательским советом Санкт-Петербургского государственного университета аэрокосмического приборостроения.
Редактор А. В. Семенчук Компьютерный набор и верстка Н. С. Степановой
Подписано к печати 28.02.06. Формат 60×84 1/16. Бумага офсетная. Печать офсетная. Усл. печ. л. 2,9. Уч. -изд. л. 2,24. Тираж 100 экз. Заказ №
Редакционно-издательский отдел Отдел электронных публикаций и библиографии библиотеки Отдел оперативной полиграфии ГУАП 190000, Санкт-Петербург, ул. Б. Морская, 67
© ГОУ ВПО «СПбГУАП», 2006
2
Практическая работа № 7 ЛИНЕЙНЫЕ РАЗДЕЛЯЮЩИЕ ФУНКЦИИ Цель работы: изучение линейных разделяющих функций и процедуры построения разделяющей гиперплоскости для диагностики технического состояния исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ Один из важнейших классов разделяющих функций связан с линейными дискриминантными функциями. Тогда разделяющая функция при распознавании двух классов: f ( x) = f1 ( x) − f 2 ( x) = λ1 x1 + λ 2 x2 + ... + λ N xN + λ N +1 ,
(1)
λ j = λ1 j − λ 2 j ( j = 1, 2,..., N + 1).
(2)
Величины λj называются весовыми коэффициентами. Методы распознавания с помощью линейных разделяющих функций называются линейными методами разделения. Диагнозы, для которых возможно такое распознавание, считаются линейно-разделимыми. Весовые коэффициенты λj образуют весовой вектор с числом компонентов N + 1 λ = {λ1, λ2, …, λN, λN+1}. (3) Для удобства геометрической интерпретации дополним вектор х еще одним компонентом xN+1 ≡ 1. (4) Тогда дополненный вектор признаков x* = {x1, x2, …, xN, xN+1}. (5) Разделяющую функцию при диагностике на два состояния можно представить в виде скалярного произведения f ( x∗ ) = λx∗ .
(6) 3
Условия разделения (решающее правило): f ( x∗ ) = λx∗ > 0 при x∗ ∈ D1 ; f ( x∗ ) = λx∗ < 0 при x∗ ∈ D2 .
(7)
Разделяющая поверхность является плоскостью в (N + 1)-мерном пространстве или гиперплоскостью. Уравнение разделяющей гиперплоскости f ( x∗ ) = λx∗ = λ1 x1 + λ 2 x2 + ... + λ N +1 xN +1 = 0.
(8)
Уравнение (8) означает, что весовой вектор λ перпендикулярен разделяющей гиперплоскости (рис. 1). В дополненном пространстве признаков разделяющая гиперплоскость всегда проходит через начало координат. x2
Разделяющая плоскость f ( x) = λx = 0 D1
λ π/2 0
D2 x1
Рис. 1. Весовой вектор и разделяющая плоскость
Линейная разделяющая функция в дополненном пространстве признаков имеет простой геометрический смысл f(x*) = λx* = h, где h – проекции вектора x* на направление весового вектора λ, что вытекает из смысла скалярного произведения. Абсолютная величина h равна расстоянию точки x* до разделяющей плоскости λx* = 0. Значение h положительно, если точка x* находится в полупространстве, векторы точек которого дают положительную проекцию на вектор λ. Нахождение разделяющей гиперплоскости. Разделяющая гиперплоскость проходит через начало координат (в дополненном пространстве признаков) и нормальна весовому вектору λ. Следовательно, вектор λ однозначно определяет положение разделяющей плоскости в 4
пространстве признаков и задача сводится к нахождению вектора λ. Рассмотрим процедуру определения весового вектора с помощью обучающей последовательности. Под обучающей последовательностью понимается совокупность образцов с известным диагнозом (совокупность «верифицированных образцов»). Эта последовательность используется для «обучения», в данном случае – нахождения весового вектора (разделяющей гиперплоскости). Пусть в пространстве признаков имеются две области диагнозов D1 и D2. Они изображены для трехмерного пространства признаков на рис. 2. Разделяющая плоскость должна удовлетворять условиям (7), которые можно упростить, если ввести в рассмотрение объединенную область диагнозов D1 и D2* : D = D1 ∪ D2* , где D2* – область диагноза D2, симметрично отображенная относительно начала координат (рис. 3). Знак ∪ означает объединение множеств. Область D2* получается из D2, если знак у векторов x ∈ D изменить на противоположный. Отметим, что области D1 и D2* могут иметь общие точки. Теперь разделяющая функция вместо соотношений (7) будет удовлетворять условию f ( x∗ ) = λx∗ > 0 при x∗ ∈ D1 ∪ D2* . x3
∗ D1 ∪ D2
(9)
x3
0
x2 D1
∗ D2
x2
D1
0 D2
x1
Рис. 2. Области диагнозов в пространстве признаков
0 D2
x1
Рис. 3. Объединенная область диагнозов
Следовательно, объединенная область D должна располагаться по одну сторону от разделяющей гиперплоскости (8) или, что равносильно, гиперплоскость не должна пересекать объединенную область диагноза. 5
В дальнейшем придется часто рассматривать векторы в дополненном пространстве (xN+1 = 1) признаков и для простоты опустим индекс * у вектора х. Уравнение гиперплоскости запишем так: f(x) = λx = 0. (10) При определении вектора λ применяется процедура последовательных приближений. Для обучения предъявляется первый образец x(1), относительно которого диагноз известен. В качестве первого приближения: для вектора λ принимается λ (1) = x(1) , если x(1) ∈ D1
или λ (1) = − x(1) , если x (1) ∈ D2 .
(11)
На рис. 4 показан случай, когда первый образец принадлежит области D2. Разделяющая плоскость для первого приближения описывается уравнением λ(1)x = 0, (12) т. е. разделяющая плоскость перпендикулярна вектору первой точки. Далее предъявляется второй образец, описываемый вектором x(2). На рис. 4 этот образец относится к диагнозу D1. Сначала проверяется правильность предыдущего приближения для разделяющей плоскости. Если выполняется условие λ(1)x(2) > 0, то весовой вектор не требует корректировки и во втором приближении принимается λ(2) = λ(1). x3
λ(1) x = 0
D1
λ(3)
x2
D2∗
x2
x3 λ(3)x = 0
λ(1) = x(1)
0
x1
Рис. 4. Процедура построения разделяющей плоскости
6
Случай, когда во втором приближении не требуется внесения поправки, показан на рис. 4 Далее предъявляется третий образец x(3) и проводится проверка предыдущего значения весового вектора. Если λ(2)x(3) > 0, то исправления вектора не требуется и принимается λ(3) = λ (2) (точки x(1), x(2), x(3) лежат по одну сторону от разделяющей плоскости). Если λ(2)x(3) > 0 (этот случай показан на рис. 4), то условие разделения (9) λx > 0 не выполняется и требуется скорректировать весовой вектор. Принимают теперь λ(3) = λ(2) + x(3) и далее переходят к показу следующего образца. В общем виде описанную процедуру можно представить так: λ ( n +1) = λ ( n ) + rn +1x( n +1) .
(13)
В последнем равенстве: при
⎧⎪0, если λ ( n ) x( n +1) > 0, x( n +1) ∈ D1r( n+1) = ⎨ ⎪⎩1, если λ ( n) x( n +1) < 0;
(14)
при
⎧⎪−1, если λ ( n ) x( n +1) > 0, x( n +1) ∈ D2 r( n+1) = ⎨ ⎪⎩0, если λ ( n ) x( n +1) < 0.
(15)
Иными словами, при неправильных ответах к вектору λ(n) добавляется вектор точки, относительно которой была совершена ошибка. Практическая часть 1. Изучить методические указания и получить задание. 2. Построить линейную дискриминантную функцию для диагностики исследуемых объектов на два класса (исправен–неисправен). 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем. Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет линейной дискриминантной функции (численный). 5. Выводы по работе. 7
Практическая работа № 8 ОБОБЩЕННЫЙ АЛГОРИТМ НАХОЖДЕНИЯ РАЗДЕЛЯЮЩЕЙ ГИПЕРПЛОСКОСТИ Цель работы: изучение обобщенного алгоритма нахождения разделяющей гиперплоскости в пространстве признаков для диагностики технического состояния исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ Рассмотрим обобщенный алгоритм нахождения весового вектора с помощью показа образцов из обучающей последовательности. Будем считать, что векторы объектов х принадлежат объединенной области диагнозов, т. е. x0 = x, если x ∈ D1; x0 = –x, если x ∈ D2. (1) Используемая ранее процедура для векторов объединенной области, имеет вид λ ( n +1) = λ ( n ) + rn +1x0( n +1) ,
(2)
где ⎧⎪1, если λ ( n ) x(0n +1) < 0; rn +1 = ⎨ 0 ⎪⎩0, если λ ( n ) x( n +1) > 0.
(3)
В обобщенном алгоритме используется прежняя процедура нахождения вектора λ, но выбор скалярного корректирующего множителя r подчинен другим условиям. Пусть построены вектор λ(n) и соответствующая разделяющая плоскость, но образец x0(n+1) распознается неправильно: λ ( n ) x0( n+1) < 0 . Проведем корректировку вектора λ(n) так, чтобы новое положение разделяющей плоскости давало правильное распознавание объекта x0(n+1) . Тогда по соотношению (2)
8
2
λ ( n +1) x0( n +1) = λ ( n ) x0( n +1) + rn+1 x(0n+1) > 0
(4)
или
rn +1 > −
λ ( n ) x0( n +1) 2 x0( n +1)
λ ( n ) x0( n +1)
=
2 x0( n +1)
.
(5)
Если же объект x0(n+1) распознается достоверно, то корректировки вектора λ(n) не требуется и следует положить rn + 1 = 0. Примем обобщенный алгоритм нахождения весового вектора в такой форме λ ( n +1) = λ ( n ) + rn +1x 0( n +1) ,
(6)
где ⎧ λ x0 ⎪cn +1 ( n ) ( n +1) , если λ ( n ) x(0n +1) < 0; 2 ⎪ rn +1 = ⎨ x0( n +1) ⎪ ⎪0, если λ ( n ) x(0n +1) > 0. ⎩
(7)
Здесь c(n + 1) — скалярный множитель, соответствующий (n + 1)-му приближению. Если положить
cn+1 =
x0(n+1)
2
λ ( n) x0( n+1)
,
(8)
то получается указанный ранее алгоритм. Установим достаточное условие, обеспечивающее приближение к точному решению в процессе последовательных приближений. Пусть λ представляет собой точное значение весового (разделяющего) вектора λх 0 > 0 для всех
х 0 ∈ D1 ∪ D2*.
(9)
Вычитая из обеих частей равенства (6) вектор λ и умножая скалярно обе части равенства на себя, получим 9
2
2
2
λ ( n+1) − λ = λ ( n) − λ + 2rn+1 (λ ( n) − λ )x(0n+1) + rn2+1 x(0n+1) .
(10)
Последнее соотношение представим так: 2
2
λ ( n +1) − λ = λ ( n ) − λ + A.
(11)
Очевидно, что при A < 0 λ ( n +1) − λ < λ ( n ) − λ и при возрастании n (увеличении числа исправлений) процесс сходится к точному значению λ ( n ) → λ . Таким образом, достаточное условие сходимости
A < 0. (12) Остается выяснить, при каких условиях справедливо последнее неравенство. Достаточно рассмотреть случай, когда λ ( n ) x(0n+1) < 0 , так как
(
)
в противном случае l ( n +1) = l ( n ) «исправление» не происходит. Учитывая верхнюю строчку неравенства (7), соотношения (10) и (11), найдем A = 2cn +1
λ ( n ) x0( n +1) 2 x0( n +1)
(λ ( n ) − λ )x0( n +1) + cn2+1
λ ( n ) x0( n +1) x0( n +1)
2
2
или A = −2cn +1
λ ( n ) x0( n +1) 2 x0( n +1)
λx0( n +1) − (2cn +1 − cn2+1 )
λ ( n ) x0( n +1) x0( n +1)
2
2
.
(13)
Первый член равенства (13) всегда отрицателен по условию (9). Второй член становится отрицательным, если 0 < cn+1 < 2. (14) Последнее условие составляет достаточное условие сходимости процесса. Обычно выбирается постоянное значение cn+1 = 2 и при условии (14) получается сходящийся алгоритм. 10
Практическая часть 1. Изучить методические указания и получить задание. 2. Построить линейную дискриминантную функцию для диагностики исследуемых объектов на два класса (исправен–неисправен) с помощью обощенного алгоритма. 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет линейной дискриминантной функции (численный) с помощью обобщенного алгоритма. 5. Выводы по работе. Практическая работа № 9 РАЗДЕЛЕНИЕ ПРИ НАЛИЧИИ НЕСКОЛЬКИХ ДИАГНОЗОВ Цель работы: изучение методов разделения в пространстве признаков с помощью линейных дискриминантных функций при наличии нескольких диагнозов исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ В случае разделения на n диагнозов оно осуществляется с помощью линейных дискриминантных функций (1) fi ( x) = λ i x. По отношению к остальным функциям должно выполняться условие fi (x) > f j (x) для x ∈ Di ( j = 1, 2,3,..., n; j ≠ i ).
(2)
Допустим, что в k-м приближении определены весовые векторы λ(k) и предъявляется (k + 1)-й образец x(k+1), принадлежащий диагнозу D1. При этом могут возникнуть две ситуации. Если λ i ( k ) x( k +1) > λ j ( k ) x( k +1) ( j = 1, 2, ..., n; j ≠ i ),
(3)
то весовые векторы не требуют корректировки и принимаются 11
λ j ( k +1) = λ j ( k ) , ( j = 1, 2, ..., n).
Если некоторые дискриминантные функции fs(x) обнаружили значения большие, чем f i (x), т. е. f s (x( k +1) ) > fi (x( k +1) )x( k +1) ∈ Di , ( s = 1, 2, ..., n; s ≠ i ), то принимается λ i ( k +1) = l i ( k ) + x( k +1) ; l s ( k +1) = λ s ( k ) − x( k +1) .
(4)
Таким образом, «усиливается» весовой вектор, соответствующий i-й разделяющей функции и «ослабляются» другие весовые векторы, нарушившие условие (2). Практическая часть 1. Изучить методические указания и получить задание. 2. Построить линейные дискриминантные функции для диагностики исследуемых объектов на три класса . 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет линейных дискриминантных функций (численный). 5. Выводы по работе. Практическая работа № 10 ПРИБЛИЖЕННЫЙ МЕТОД ПОСТРОЕНИЯ РАЗДЕЛЯЮЩЕЙ ГИПЕРПЛОСКОСТИ Цель работы: изучение приближенного метода построения разделяющей гиперплоскости в пространстве признаков для диагностики технического состояния исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ Рассмотрим разделение на два диагноза линейной разделяющей функцией 12
f(x) = λx.
(1)
x2
x A2
Разделяющая плоскость
a2
A1
a0 a1
x1
Рис. 1. Приближенный способ построения разделяющей плоскости (в двухмерном пространстве признаков)
Ранее разбиралась процедура нахождения весового вектора λ с помощью последовательного показа образцов, принадлежащих состояниям (диагнозам) D1 и D2. Укажем теперь прямой способ приближенного определения весового вектора. Пусть в обучающей последовательности для первого диагноза D1 содержится M1 образцов и, соответственно, для второго диагноза D2–M2 образцов. Введем «средние векторы» или эталоны для диагнозов D1 и D2: M
a1 =
1 1 ∑ xρ(1) ; M1 ρ =1
(2)
M
1 2 a2 = (3) ∑ xρ(2) . M 2 ρ =1 Проведем разделяющую плоскость через середину отрезка, соединяющего концы средних векторов-эталонов (рис. 1), и перпендикулярно этому отрезку (вектору a2–a1). Вектор, проходящий через середину отрезка, a 0 = a1 + (a 2 − a1 ) / / 2 = (a1 + a 2 ) / 2 . Если вектор х лежит в разделяющей плоскости, то скалярное произведение (a 2 − a1 )( x − a 0 ) = 0
или (a 2 − a1 ) x − (a 2 − a1 )(a 2 + a1 ) / 2 = 0.
(4) 13
Уравнение (4) в N-мерном пространстве признаков имеет вид f ( x) = ( a21 − a11 ) x1 + ... + ( a2 N − a1N ) x N + 1(a12 − a 22 ) / 2 = 0.
(5)
Сопоставляя с уравнением для разделяющей плоскости в дополненном пространстве признаков, получим значения составляющих весового вектора λ1 = a2 − a1 , ..., λ N = a2 N − a1N , l N +1 = (a12 − a 22 ) / 2.
(6)
Указанные значения могут быть выбраны как первые приближения, и относительно плоскости (5) должны быть проверены все точки обучающей последовательности; при необходимости вносят исправления в соответствии с изложенными ранее алгоритмами. Практическая часть 1. Изучить методические указания и получить задание. 2. Построить линейную дискриминантную функцию для диагностики исследуемых объектов на два класса с помощью приближенного метода. 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем. Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет линейной дискриминантной функции (численный). 5. Выводы по работе. Практическая работа № 11 РАЗДЕЛЕНИЕ В ДИАГНОСТИЧЕСКОМ ПРОСТРАНСТВЕ Цель работы: изучение метода разделения в диагностическом пространстве для контроля технического состояния исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ Рассматривается распознавание образов двух классов (диагнозов D1 и D2) с помощью разделяющей функции общего вида 14
f ( x) =
v
∑ λi ji (x),
(1)
i =1
причем при f ( x) > 0 x ∈ D1 ; при
f ( x) < 0 x ∈ D2 ,
(2)
где x – вектор, изображающий объект в пространстве признаков. В равенстве (1) скалярные функции векторного аргумента ϕi (x) выбираются заранее, коэффициенты λi подлежат определению. Введем в рассмотрение диагностическое пространство размерности ν, координаты точек которого zi = ϕi(x) (i = 1,2, ..., ν). (3) В обычном пространстве признаков объект характеризуется вектором x{x1, x2, ..., xn} или «расширенным» вектором x{x1, x2, ..., xn,1}. В диагностическом пространстве объект описывается вектором z = {z1, z2, ..., zν}. Равенство (3) устанавливает преобразование пространства признаков в диагностическое пространство. Такое преобразование целесообразно, если позволяет более просто осуществить разделение областей диагнозов. a)
б) x3
x2 D1
D2 0
D2
x1
D1
–1 0 1 2 3 4
z1
Рис. 1. Разделение в пространстве признаков и диагностическом пространстве
Пусть, например, объект характеризуется тремя бинарными (простыми) признаками x1, x2, x3; в трехмерном пространстве признаков каждый из объектов соответствует одной из вершин трехмерного единичного куба (рис. 1, а). Выберем пространство одномерным, полагая z1 = x12 + x22 + x32 .
(4)
Тогда вершины куба отобразятся в четыре точки прямой z1 (рис. 1, б). Если точки, отмеченные треугольником, относятся к диагнозу D2, а круж15
ком – диагнозу D1, то разделяющая функция в диагностическом пространстве имеет очень простой вид, например f(z1) = z1 – 3/2. (5) Отметим, что равенство (3) устанавливает однозначное преобразование точек пространства признаков в точки диагностического пространства. Обратное преобразование, как ясно из приведенного примера, может быть не однозначным. Основная идея рассматриваемого метода – преобразование пространства признаков в другое пространство, в котором возможно осуществить линейное разделение диагнозов (классов). Отметим, что при достаточно большой размерности диагностического пространства такое разделение принципиально возможно, но для эффективности практической реализации важно найти преобразования (3) с конечным и небольшим числом членов ряда (1). Напомним, что размерность диагностического пространства соответствует числу членов ряда (1). Для достаточно «гладких» разделяющих функций этот ряд содержит конечное число членов; в других задачах диагностическое пространство будет бесконечномерным, и тогда для сходящихся рядов, так как только в этом случае функция f(x) сохраняет смысл, l i → 0 при i → ∞ . Разделяющая функция в диагностическом пространстве f(z) = λ z, (6) где весовой вектор λ = {λ1, λ2, ..., λν} (7) и вектор z = {j1 ( x), j 2 ( x),..., j v ( x)} = j( x).
(8)
Если возможно представление разделяющей функции в виде ряда (1), то существует также линейное разделение в диагностическом пространстве. Разделяющая функция будет построена, если определены коэффициенты λi. Эти коэффициенты могут быть найдены в процессе обучения с помощью показа образцов из обучающей последовательности. Наиболее простой способ – использование алгоритмов для линейной разделяющей функции в диагностическом пространстве. 16
После первого образца x(1) или в диагностическом пространстве образца z(1) разделяющая функция в диагностическом пространстве
⎧⎪z (1) z при z (1) ∈ D1; f (1) (z ) = ⎨ ⎪⎩−z (1) z при z (1) ∈ D2 ,
(9)
соответственно, в пространстве признаков v ⎧ ⎪j(x(1) )j(x) = ji (x(1) )ji (x) x(1) ∈ D1; ⎪ i =1 f (1) (x) = ⎨ v ⎪ x x − = − ( ) ( ) j j ji (x(1) )ji (x) x(1) ∈ D2 . (1) ⎪ i =1 ⎩
∑
∑
(10)
Для (n + 1)-го приближения разделяющей функции можно записать f ( n +1) (x) = f ( n ) (x) + r( n +1)
v
∑ ji (x(n+1) )ji (x),
(n = 0,1, 2,...),
i =1
(11)
где при x( n +1) ∈ D1
⎧⎪0, если f ( n ) (x( n +1) ) > 0; rn +1 = ⎨ ⎪⎩1, если f ( n ) (x( n +1) ) < 0.
(12)
При x( n +1) ∈ D2 принимается
⎧⎪−1, если f ( n ) (x( n +1) ) > 0; rn +1 = ⎨ ⎪⎩0, если f ( n ) (x( n +1) ) < 0. Отметим, что f(0)(x) = 0, а значение f(1)(x) определяется равенством (10). Для коэффициентов разложения λi (компонентов весового вектора) в равенстве (1) получаем следующие значения в процессе последовательных приближений:
(
)
λi (n +1) = λi (n ) + rn +1fi x( n +1 .
17
Практическая часть 1. Изучить методические указания и получить задание. 2. Построить дискриминантную функцию для диагностики исследуемых объектов на два класса в диагностическом пространстве z = (x12 + x22 + x32)0,5. 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем. Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет дискриминантной функции в диагностическом пространстве (численный). 5. Выводы по работе. Практическая работа № 12 МЕТОД ПОТЕНЦИАЛЬНЫХ ФУНКЦИЙ Цель работы: изучение метода потенциальных функций и алгоритма построения разделяющей функции для диагностики технического состояния исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ Метод потенциальных функций является развитием идеи преобразования пространства признаков. В настоящее время метод потенциальных функций можно считать одним из наиболее разработанных и математически обоснованных методов распознавания образов (классов, диагнозов, состояний). В качестве дискриминантных функций fi(x) для диагноза D1 в пространстве признаков в рассматриваемых методах выбираются функции, имеющие наибольшее значение для точек этой области и убывающие по мере удаления от нее. Подобным свойством обладает потенциал точечного заряда, что и дало название методам. Если ввести расстояние между произвольной точкой x пространства признаков и некоторой характерной точкой xi, принадлежащей диагнозу Di 18
ρ( x, xi ) = x − xi ,
(1)
то следует считать, что дискриминантная функция fi(x) должна быть убывающей функцией этого расстояния f i (x) = f i (ρ).
(2)
Так как ρ зависит от x и xi, то можно записать fi(x) = K(x, xj), (3) где K(x, xi) – потенциальная функция x, в которую входит xi как параметр. Точка x в многомерном пространстве признаков описывает состояние объекта. Метод потенциальных функций развит для разделения на два состояния (дифференциальная диагностика, дихотомия). В указанном случае разделяющая функция f ( x) = f1 ( x) − f 2 ( x) = K ( x, x1 ) − K ( x, x 2 ).
(4)
Основное свойство разделяющей функции: f(x) > 0, если x ∈ D1; f(x) < 0, если x ∈ D2. (5) Диагнозы (классы) D1 и D2 считаются непересекающимися, т. е. точка x может входить только в один из указанных классов. Если известна потенциальная функция K(x, y), которую условно можно рассматривать как «потенциал» в точке x от источника в точке y, то при соответствующем выборе точек x1 и x2 можно построить разделяющую функцию f(x). Потенциальная функция зависит от расстояния между точками K (x, y ) = K ( x − y ).
(6)
Приведем несколько возможных выражений для потенциальной функции, учитывающих условия ограниченности функции при x = y K ( x, y ) = e
K (x, y ) =
− a x−y
m
1 1+ a x − y
(7)
; m
;
(8)
(m > 0; a > 0),
19
1
⎧⎪ N ⎫⎪ 2 где x − y = ⎨∑ ( xi − yi ) 2 ⎬ — расстояние между точками x и y. ⎪⎩ i =1 ⎪⎭
Опишем наиболее простой алгоритм построения разделяющей функции f(x) на основе потенциальной функции K(x, y) с помощью показа образцов из обучающей последовательности. После показа первого образца x(1) принимается
⎧⎪ K (x, x(1) ), если x(1) ∈ D1; f (1) (x) = ⎨ ⎪⎩− K (x, x(1) ), если x(1) ∈ D2 .
(9)
Далее показывается второй образец x(2) и возможны следующие ситуации: а) при x(2) ∈ D1 f(1)(x(2) > 0; б) при x(2) ∈ D1 f(1)(x(2) < 0; в) при x(2) ∈ D2 f(1)(x(2) > 0; г) при x(2) ∈ D2 f(1)(x(2) > 0. Для случаев а и г поправки не требуются; в случае б принимается f(2)(x) = f(1)(x) + K(x, x(2)); наконец, в случае в f(2)(x) = f(1)(x) – K(x, x(2)). Построение дальнейших приближений очевидно. Допустим, что потенциальная функция может быть представлена рядом K (x, y ) =
∞
∑ αi2ji (x)ji (y),
(10)
i =1
где {φi, (x)} – некоторая система функций; αi – числовые коэффициенты. Рассмотрим преобразование пространства признаков x в диагностическое пространство, причем координаты точки в этом пространстве (11) zi = αi ji ( x), где αi определяются как коэффициенты ряда (10). Тогда первое приближение для разделяющей функции в диагностическом пространстве в соответствии с равенствами (9)–(11) будет таким 20
⎧⎪zz (1) , если z (1) ∈ D1; f (1) (z ) = ⎨ ⎪⎩−zz (1) , если z (1) ∈ D2
(12)
или
⎧∞ 2 ⎪ αi ji (x)ji (x(1) ), если x(1) ∈ D1; ⎪ i =1 f (1) (x) = ⎨ ∞ (13) ⎪ 2 α ( x ) ( x ), если x . ∈ D j j (1) (1) 2 i i i ⎪ ⎩ i =1 Основное преимущество метода потенциальных функций состоит в том, что для построения алгоритма распознавания не требуется знания (или подбора) функций ϕi(x), а достаточно выбрать K(x, y) [уравнения (7), (8)].
∑ ∑
Практическая часть 1. Изучить методические указания и получить задание. 2. Построить дискриминантную функцию для диагностики исследуемых объектов на два класса с помощью метода потенциальных функций. 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем. Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет дискриминантной функции (численный). 5. Выводы по работе. Практическая работа № 13 МЕТОД ПОТЕНЦИАЛОВ Цель работы: изучение метода потенциалов для диагностики технического состояния исследуемых систем и объектов. МЕТОДИЧЕСКИЕ УКАЗАНИЯ Метод потенциалов основывается на тех же первоначальных представлениях, что и метод потенциальных функций, но построение алгоритма распознавания проводится другим путем. 21
В этом методе для построения дискриминантных функций также используются потенциальные функции K(х, у). Однако они получаются не в результате последовательной (рекуррентной) процедуры, как в методе потенциальных функций, а строятся на основе имеющейся предварительной информации. Алгоритм построения является не самообучающимся, как в методе потенциальных функций, а заранее выбранным, детерминированным. Однако простота метода делает его привлекательным для практических приложений. Пусть имеется обучающая последовательность, содержащая m образцов, принадлежащих диагнозу Di (i = 1,2, …, n). Такая ситуация характерна для большинства задач технической и медицинской диагностики. Если представляет собой эталонный вектор диагноза Di (типичный случай), то дискриминантными функциями могут быть соответствующие потенциальные функции Fi(x) = K(x, xi); (1) K ( x, x i ) = e
K (x, xi ) =
− a x − xi
m
1 1 + a x − xi
(2)
; m
;
(3)
(m > 0; a > 0), 1
⎧⎪ N ⎫⎪ 2 где x − xi = ⎨ ( x j − xij ) 2 ⎬ – расстояние между точками x и xi. ⎩⎪ j =1 ⎭⎪ В качестве эталонного образца можно принять средний образец
∑
xi =
1 mi
mi
∑ xi( s) . s =1
(4)
По физическому смыслу fi(x) представляет собой потенциал в точке от источника (заряда) в точке xi. Все дискриминантные функции положительны, так как потенциальные функции удовлетворяют условию K(х, у) > 0. Очевидно, K(хi, xi) > K(хj, xi) (i, j = 1,2, …, n; i ≠ j), так как K(х, y) – убывающая функция расстояния. Другой метод образования дискриминантных функций состоит в использовании среднего значения потенциальной функции 22
f i ( x) =
1 mi
mi
∑ K (x, xis ), s =1
(5)
где K (x, xi( s ) ) — потенциальная функция для образца, принадлежащего диагнозу Di. Алгоритм распознавания является обычным при использовании дискриминантных функций. Предъявленный для распознавания объект x ∈ Di , если fi(x) > fj(x) (j = 1,2,..., n; j ≠ i).
(6)
Очевидно, уверенность в правильной классификации будет больше, если функция fi(x) существенно превышает остальные. Введем меру качества (надежности) процесса распознавания x i ( x) = f i ( x) /
n
∑ fi (x). i =1
(7)
В практических задачах решение о принадлежности объекта к диагнозу Di можно принимать, если xi (x) > x 0 ,
(8)
где x 0 – выбранный уровень качества. Если условие (8) не выполняется, то для принятия решения требуется дополнительная информация. Практическая часть 1. Изучить методические указания и получить задание. 2. Построить дискриминантную функцию для диагностики исследуемых объектов на два класса с помощью метода потенциалов. 3. Оформить отчет о практической работе. 4. Защитить отчет о практической работе при собеседовании с преподавателем. Отчет должен содержать: 1. Цель работы. 2. Задание. 3. Основные формулы и положения. 4. Расчет дискриминантной функции (численный). 5. Выводы по работе. 23
24
2
1
№ варианта 35
t, °С
40
t, °С
40
t, °С
85
t, °С 40 60
t выб, с
t, °С
Параметр
23
t выб, с
Параметр
60
t выб, с
Параметр
7
t выб, с
Параметр
32
t выб, с
Параметр
90
40
60
26
60
60
60
5
40
22
45
46
65
30
45
68
85
8
30
37
60
22
70
15
80
63
70
10
30
46
120
42
80
33
60
78
80
27
35
42 60
75
18
55
71
75
23
90
52
83
30
Класс D1
65
18
Класс D2
35
63
Класс D1
80
22
Класс D2
80
52
Класс D1 42
68
45
85
12
55
45
65
12
55
47
53
42
70
35
45
56
75
15
60
40
45
37
75
27
30
69
70
23
55
30
83
47
60
8
30
56
65
20
45
45
67
37
40
11
40
33
60
17
45
37
53
32
80
41
35
48
85
15
40
40
Таблица 1
Исправное состояние подшипников качения D1 характеризуется пониженной температурой элементов качения (неподвижного кольца) и повышенным «временем выбега» по сравнению с неисправным состоянием D2. Построить линейную разделяющую функцию для диагностики подшипников на два класса. Измерения to и t выбега для экземпляров, находящихся в состоянии D1 и D2, представлены в табл. 1
ЗАДАНИЯ К ПРАКТИЧЕСКИМ РАБОТАМ № 7, 8, 10, 12, 13
25
5
4
3
85
40
120
t, °С Параметр
t выб, с
t, °С
t выб, с
30
35
Параметр
84
t, °С
90
90
45
65
40
60
104
120
33
45
90
8
69
t выб, с
Параметр
t, °С
t выб, с
Параметр
t, °С
t выб, с
105
23
60
90
t, °С
Параметр
17
t выб, с
Параметр
110
47
75
30
60
80
105
35
60
33
120
22
160
42
75
36
45
90
120
25
52
48
60
7
60
46
65
24
45
77
127
22
60
60
90
5 127
15
68
68
113
23
55
60
34
80
23
70
33
70 60 Класс D1
46
Класс D2
40
80
Класс D1
98
18
Класс D2
67
55
Класс D1
105
10
Класс D2
120
53
60
10
55
94
98
30
83
45
98
20
110
31
85
16
30
92
120
40
90
78
120
27
90
36
40
15
40
44
105
15
120
63
112
18
60
38
70
21
35
64
60
11
52
63
90
12
126
12
45
55
125
8
70
43
80
45
30
74
112
27
83
70
113
15
Продолжение табл. 1
26
8
7
6
130
t, °С
65
40
72
t, °С Параметр
t выб, с
t, °С
t выб, с
14
30
t, °С
Параметр
45
150
t выб, с
Параметр
t, °С
t выб, с
30
90
t, °С
Параметр
90
t выб, с
Параметр
13
t выб, с
Параметр
36
37
70
28
40
26
130
24
120
80
150
19
66
47
60
20
55
56
140
20
110
94
140
24
54
45
40
9
60
48
120
10
160
83
120
18
48
40
85
10
55
36
80
14
70
84
170
16 140
11
80
44
160
44
40
48
24
42
32
48
22
75 65 Класс D1
18
Класс D2
45
44
Класс D1
150
36
Класс D2
60
72
Класс D1
160
23
Класс D2
42
42
85
18
35
38
140
46
110
60
170
9
66
30
80
26
30
55
130
40
60
74
120
6
54
37
70
12
80
50
160
54
70
62
80
7
96
42
60
6
60
62
170
16
120
104
160
28
36
46
75
22
35
51
170
30
90
74
150
15
72
52
80
32
45
54
Продолжение табл. 1
27
11
10
9
90
t, °С
75
40
78
t выб, с
t, °С
19
t, °С Параметр
t выб, с
Параметр
52
60
t, °С
90
t выб, с
Параметр
t, °С
t выб, с
22
t, °С
Параметр
54
54
t выб, с
Параметр
18
t выб, с
Параметр
52
22
65
26
45
59
102
10
72
48
48
7
39
37
70
12
55
39
48
8,50
48
26
84
23
72
47
65
16
80
55
90
18
72
62
72
17
59
45
40
9
30
48
78
24
96
50
102
15 96
22
38 42
84
12
60 30 30
46
42
78
52
60 70 Класс D1
7
Класс D2
55
61
Класс D1
96
26
Класс D2
36
55
Класс D1
84
10
Класс D2
52
52
85
19
40
52
72
20
66
56
78
20
39
46
60
22
35
55
78
14
54
45
90
15
72
30
85
10
45
48
96
32
48
48
96
27
59
37
80
35
35
42
84
28
66
36
78
12
46
32
75
23
40
29
72
6
42
51
72
5
104
42
80
29
60
68
102
18
36
45
102
8
Продолжение табл. 1
28
15
14
13
12
45
t, °С
t, °С
98
18
Параметр t выб, с 91
10
52
40
78
22
102
t, °С Параметр t выб, с
t, °С
78
15
20
60
48
52
9
55 104
85
12
t выб, с
Параметр
44
78
t выб, с
Параметр
t, °С
t выб, с
2
58 78
Параметр t выб, с t, °С
Параметр
98
15
t, °С
Параметр t выб, с
111
8
39
37
48
7
30
55
110
10
52 52
104
27
52
7
72
47
84
10
60
62
104
29
60 39
91
10
85
20
59
45
90
18
45
54
78
7
59 59
78
5 85
91
30
40
48
15
78
98
15
104
27
Класс D2
46
96 90 Класс D1 42 52
27
Класс D2
35
51
Класс D1
98
23
Класс D2
Класс D1 52 29 78 52
98
Класс D2 18 20
78
5
52
52
72
5
55
36
85
16
48 39
104
22
104
22
39
46
102
8
55
56
110
20
48 59
91
23
91
23
72
30
78
12
30
45
104
35
39 72
78
17
78
17
59
37
96
22
40
26
98
19
42 46
111
8
85
12
46
32
72
17
80
50
91
13
61 72
52
7
110
15
104
42
84
23
35
38
85
26
55 46
110
15
Окончание табл. 1
29
№ Паравариметр анта t выб, с t, °С 1 Параметр t выб, с t, °С 2 Параметр t выб, с t, °С 3 Параметр t выб, с t, °С 4
35
4,3
60
2,1
63
10
8,5
51
5,6
56
6
87,5 100
2,5
5
30
10
113
40
8,8
49
6 45
68
60
53
49
113 100 87,5 75
34
27
25
15 30
32
10
23
15
30
Класс D2
51
17
29
5
25
42
50
44
42
7
21
15
25
10
38
8,5
17
39
20
25 17,5 37,5 42,5 12,5 30 37,5
70 62,5 70 62,5
Класс D1
21 23,8 14
35
Класс D1
45 57,5 67,5 75
28
75 62,5 80
40 37,5 35 75 62,5 50
50
35 Класс D2
35 44,8 28
12
28
43 42,5 48 12 25,5 25
51
7
27
Класс D1
17
28
Класс D1
24 30,5 30 25,5 39 47,5 46
51 42,5 54,5 42,5
34
25
20 17,7 18 30
Класс D2
20
16
Класс D2
21 19,6 25,2 17,5 24,5 28 22,4 42 39,2 32,2 35
34
21
20
12,5 14
15 22,0 18,8 12,5 31
56
3,5
77
7,0 12,8 2,6
45
1,5
10,5 12,3 8,4
Класс D3
42
4
15 68
Класс D3
76
7
4 40
Класс D3
35
7,5
Класс D3
Таблица 2
Исправное состояние подшипников качения D1 характеризуется пониженной температурой элементов качения (неподвижного кольца) и повышенным «временем выбега» по сравнению с предотказным состоянием D2. Неисправное состояние характеризуется высокой температурой малым временем выбега. Построить линейную разделяющую функцию для диагностики подшипников трех классов. Измерения to и t выбега для экземпляров, находящихся в состоянии D1, D2 и D3, представлены в табл. 2.
ЗАДАНИЕ К ПРАКТИЧЕСКОЙ РАБОТЕ № 9
30
9
8
7
6
5
Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр
70
6,5
80
3,2
6,0
84
12
71
45,5 39
5
8
45
52,5 60
80
2
5,2
8
90
3
60
13
21
30
60
30 40
25
48
27
40
32
95
95
84
21 10,0 18
Класс D3
106
14
Класс D3
50
35
64
36
36
34
56
43
Класс D2
30
50
10
50
Класс D1
20
46
Класс D1 14
54
24
56
7,5 22,5 10,5 25,5 18 22,5
42 37,5
9
35
12 Класс D1
40
17
28
42 29,5 71,5 60 66,5 59,5 64,5 67
Класс D1
13 19,5 6,5
24
55
15,6
39 36,4 30 32,5 32,5 35 36,4
30
60
108 71,5 59,5 47,5 71,5 76 59,5 47,5 36
3,6 47,5 33,5 38
60
40
15
39 41,5 39 19,5 22 Класс D2
Класс D1 26 22,5 34,5 37,5 45 40,5 42
21 19,5 23,4 26
Класс D2
50
28
57 52,5 59
42 52,5 21 10,5 31,5 35,7 15 31,5 25
30 37,5 45
24
Класс D2
30 37,5 45
19
67
Класс D2
63 52,5 63
59
Класс D1
42 29,4 31,5 38 33,6 36,8 48 52,5 63
11,4 18 16,3 23
90
12
68
9
42
Класс D2
45,5 58,5 52 58,5 52 32,5 26 32,5 26
9,7
70
17,6 15,0
Класс D3
60
10
2,0
52,5 68
11
63
12,6 16,0 18,5 10,5 26 94,5 73,5 84
Класс D3
7,5
6,0
4
84
Класс D3
8,4
3,0
5
73,5 94,5
Класс D3
Продолжение табл. 2
31
15
14
13
12
11
10
t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С Параметр t выб, с t, °С
66,5 57
56
12
103,5 85
92
69
64
14
88
42
48
9,0 10,5
72
9,6
99
32
20
55
26
14
54
7
Класс D2
66 70,4 44
28
40
30
17
48
51
24
19
21 30 Класс D2
36
18
Класс D2
38
69
74
57
16
37
33
24
48
46 57,5 69
46
19
45
Класс D1
11
43
24
40
27
45
11 26,4
8,4
18
18
23
11,5 34,5 39
16
28 34,5
53 57,5 69 64,4 62 64,4 57,5
Класс D1
6
30 32,4 30 33,6
Класс D1
19 32,3 28,5 9,5 13,3 28,5 23
57 47,5 51,3 47,5 53
8
40
Класс D1
22 37,4 33 15,4
36 38,4 12 20,4 18
40
9
66 50,6 61,6 55 59,4 55 61,6
38 43,7 53
40
28
65
27 12,6 21,6
Класс D1
27 30,6 18
54 50,4 41,4 45 48,6 50,4 45
24 21,6 27,5 33,5 36
61
33 28,5 30,4 34
Класс D2
32
29
55
33 39,6 35 38,5 44
32 28,8 34,5 41,5 37
24
15
54 57,6 54
Класс D2
45
27 32,4 36
24 25,6 22,4 32
44
34
36
92 80,5 104 57,5 46
5,8 20,0 17
3,5
Класс D3
54
2
Класс D3
48
45
3,0 16,7 11,4 26,6 24
72
2,4
99
81
8,8 13,2 31
72
11 25,2 22,5 31,5 29
66,5 85,5 76 85,5 47,5 38 47,5 57
14
Класс D3
64
5,4
5
77
9,2 11,5
36
9,5
4,7
42
76
48
56
6,0
7,6
8,0
4
81
16,5 3,3
Класс D3
66
88
77
3
63
13,5 2,7 15,8
Класс D3
72
11
54
63
7,2
5,5 19,3
9,0
4,5
Окончание табл. 2
32
3
2
1
№ варианта
х\N х1 х2 х3
1 2 3 4 1,3 0,65 1,95 3,25 1,3 2,6 3,9 2,6 0,65 3,9 2,6 3,25
4 5 6 7 0,5 1,5 2,5 2,5 2 3 2 3 3 2 2,5 1,5
1 4 4 7
1 2 3 4 5 6 3 1,5 2,3 3,8 2,3 0,75 1,5 1,5 3 3 4,5 3 3 0,75 1,5 3,8 3 4,5
Класс D1
2 5,2 5,2 9,1
2 6 4,5 5 3 7,8 5,9 6,5
3 3,5 5,5 4,5
7 1 2 3 3,75 9 6,8 6 4,5 8,3 9,8 6 2,25 12 9,8 10,5
5 6 7 1 2,6 1,95 3,3 7,8 1,3 2,6 3,9 7,2 2,6 1,3 1,95 10,5
Класс D1
3 2 1 2
х\N х1 х2 х3
2 1,5 2 1
1 1 1 0,5
х\N х1 х2 х3
Класс D1
4 9 6,8 7,5
5 5 4 7 5 5,9 8,5 8,5 5 5,3 8,3 6,8
Класс D2
4 6,5 5,2 9,1
Класс D2
4 6 5,5 8
Класс D2
7 4,6 7,15 5,85
7 5 6,5 5,5
6 7 7,5 7,5 9,8 6 8,25 10,5
6 6,5 8,5 7,2
6 4,5 6,5 6,5
Таблица 3
Исправное состояние подшипников качения D1 характеризуется пониженными уровнями вибрации x1, x2, x3 на информационных частотах по сравнению с неисправным состоянием D2. Построить разделяющую функцию в диагностическом пространстве для разделения подшипников на два класса. Измерения x1, x2, x3 для экземпляров, находящихся в состоянии D1 и D2, представлены в табл. 3.
ЗАДАНИЕ К ПРАКТИЧЕСКОЙ РАБОТЕ № 11
33
7
6
5
4
х\N х1 х2 х3
х\N х1 х2 х3
х\N х1 х2 х3
х\N х1 х2 х3
5 6 7 1 2 3 2,6 0,85 4,25 8,5 10,2 6,8 3,4 3,4 5,1 6,8 7,7 6,8 1,7 5,1 2,6 12 8,5 12
5 6 7 10,2 6 7,65 9,35 0,4 11 13,6 7,65 11
Класс D2
4 8,5 11 9,4
Класс D2
5 0,55 2,2 3,3
1 2 3 4 5 1,4 0,7 2,1 2,82 2,1 1,4 2,8 2,75 1,45 4,15 0,7 4,2 1,4 2,85 2,8
Класс D1
1 2 3 4 2,75 1,65 1,7 1,1 2,2 3,3 2,2 1,15 2,8 2,2 1,1 0,55
Класс D1
3 6,6 5 5,5
5 4,95 6,05 7,2 Класс D2
4 6,6 6 8,8
6 7 1 2 3 4 5 3,51 3,49 5,65 8,4 4,9 8,45 7 2,79 4,17 5,6 6,3 7,7 7,75 5,61 3,62 2,12 9,8 7 6,35 11,2 9,8
6 7 1 2 2,8 2,2 3,8 5,5 3,3 1,1 6 4,4 1,7 2,2 5 7,7
Класс D2
6 6,3 7,8 9,1
6 4,4 4,4 7,7
7 7 9 7,81
7 5,5 7,2 6
1 2 3 4 5 6 7 1 2 3 4 5 6 7 3,8 2,85 4,8 2,9 4,75 0,95 1,9 9,5 11,4 11,4 9,5 8,6 6,7 7,65 1,9 1,9 3,8 5,7 5,65 3,8 1,9 12,4 10,5 8,6 7,6 10,45 10,5 7,6 3,8 1,9 4,8 3,8 2,9 5,7 0,95 10,5 15,2 9,5 13,4 12,3 8,55 13,3
Класс D1
1 2 3 4 3,4 1,7 2,6 4,25 1,7 1,7 5,1 3,4 3,4 0,85 3,4 4,25
Класс D1
Продолжение табл. 3
34
11
10
9
8
х\N х1 х2 х3
х\N х1 х2 х3 1 2 3 4 4,4 2,15 1,1 3,3 2,21 2,2 4,4 6,5 4,4 1,1 6,6 4,35
5 5,5 2,35 5,45
6 5,45 6,55 3,3
7 5,4 6,6 7,8
Класс D2
Класс D2
7 1 2 3 4 5 6 7 3,3 7,7 8,8 10 11 13,2 11 13,2 4,3 12,1 8,85 12 12,5 12 14,3 10 2,25 9,9 15,4 14,3 10,5 17,6 12 11
5 6 7 1 4,5 0,9 2,71 10,8 5,4 3,55 5,35 9,9 2,7 5,4 3,5 14,5
Класс D1
1 2 3 4 3,6 2,7 1,82 4,52 1,8 3,6 1,75 3,45 3,6 1,8 1 4,47
Класс D1
6 6 4,8 8,4
4 5 6 7 9,6 8 6,45 9,6 7,2 10,40 6,4 8,8 8 8,8 11,25 12,8
Класс D2
4 5 4,8 4,2 4,85 5,60 8,4 5,4
Класс D2
2 3 4 5 6 7 11 7,25 8,1 6,3 9 9,2 8,1 7,15 10 10,50 7,3 12 9 12,6 11,7 8 12,50 9,9
1 2 3 4 5 6 7 1 2 3 2,4 1,62 2,4 0,8 3,21 4 4 5,6 7,2 8 3,2 1,59 4,8 3,2 1,6 3,2 4,8 8,8 8,8 6,4 1,6 0,8 3,2 4,8 3,25 4 2,4 7,2 10,4 11,2
3 7,2 5,4 6
х\N х1 х2 х3
Класс D1
2 3 4 5 6 7 1 2 1,2 1,8 0,65 3 1,8 3 7,2 6 1,2 2,4 2,35 2,4 3,6 3,55 6,6 7,8 0,6 1,2 3,6 3 2,41 1,8 9,6 6,6
1 2,42 1,21 2,.39
х\N х1 х2 х3
Класс D1
Продолжение табл. 3
35
15
14
13
12
х\N х1 х2 х3
х\N х1 х2 х3
х\N х1 х2 х3
х\N х1 х2 х3
2 2 2 1 Класс D1
4 4 2 4
Класс D1
3 1 4 6
5 3 6 4
6 5 4 5
7 5 6 3
1 12 11 16
2 10 13 11
3 9 11 13
5 7 11 9
Класс D2
4 10 8 14
Класс D2
6 8 8 14
7 12 9 10
5 5,2 4,15 5,25
1 2 3 4 4,8 3,6 2,45 6 2,42 7,2 2,43 7,25 4,8 4,82 1,2 3,6
5 3,6 4,8 2,43
Класс D1
1 2 3 4 2,15 1,1 3,15 4,25 2,05 4,2 4,2 2,1 1 6,3 2,1 4,2
Класс D1
6 7 1 1,2 6 12 4,75 4,7 9,6 7,2 6 16,8
2 3 4 5 6 7 14,4 12 8,4 10,8 14,4 9,6 10,8 15,6 13,2 13,2 13 9,6 12 13,2 10,8 15,6 19,2 16,8
Класс D2
6 7 1 2 3 4 5 6 7 3,2 5,3 8,45 12,6 7,4 12,6 10,5 9,5 10,5 6,3 6,3 8,4 9,5 11,6 11,55 8,40 11,6 13,65 4,2 3,15 14,7 10,5 9,45 16,8 14,7 13,7 11,55
Класс D2
1 2 3 4 5 6 7 1 2 3 4 5 6 7 5,75 4,65 1,2 5,7 2,35 3,5 3,45 9,5 10,4 13,8 11,5 8 13,8 11,5 4,6 2,3 4,55 6,9 2,25 4,55 7 9,2 12,7 10,35 9 12,65 12,55 15 5,7 4,55 7 3,5 1,2 2,3 4,6 16 15 11,5 16,1 10,35 18,40 12,7
1 3 4 2
Окончание табл. 3
Библиографический список 1. Биргер И. А. Техническая диагностика. М.: Машиностроение, 1978. 240 с. 2. Диагностирование и прогнозирование технического состояния авиационного оборудования: Учеб. пособие для вузов / В. Г. Воробьев, В. В. Глухов, Ю. В. Козлов и др; Под ред. И. М. Синдеева. СПб.: Транспорт, 1994. 191 с. 3. Дмитриев А. К. Основы контроля и технической диагностики: Учеб. пособие. М.: МО, 1988. 206 с. 4. Технические средства диагностирования: Справочник / В. В. Клюев, П. П. Пархоменко и др.; Под общ. ред. В. В. Клюева. М.: Машиностроение, 1989. 672 с. Оглавление
ПРАКТИЧЕСКАЯ РАБОТА № 7 .......................................................... Линейные разделяющие функции ................................................... ПРАКТИЧЕСКАЯ РАБОТА № 8 .......................................................... Обобщенный алгоритм нахождения разделяющей гиперплоскости .................................................................................. ПРАКТИЧЕСКАЯ РАБОТА № 9 .......................................................... Разделение при наличии нескольких диагнозов ............................ ПРАКТИЧЕСКАЯ РАБОТА № 10 ........................................................ Приближенный метод построения разделяющей гиперплоскости .................................................................................. ПРАКТИЧЕСКАЯ РАБОТА № 11 ........................................................ Разделение в диагностическом пространстве .............................. ПРАКТИЧЕСКАЯ РАБОТА № 12 ........................................................ Метод потенциальных функций ....................................................... ПРАКТИЧЕСКАЯ РАБОТА № 13 ........................................................ Метод потенциалов .......................................................................... Задания к практическим работам № 7, 8, 10, 12, 13 .......................... Задание к практической работе № 9 .................................................... Задание к практической работе № 11 .................................................. Библиографический список ..................................................................... 36
3 3 8 8 11 11 12 12 14 14 18 18 21 21 24 29 32 36