Міністерство освіти та науки України Львівський національний університет імені Івана Франка
Бабенко В.В. ОСНОВИ ТЕОРІЇ ...
72 downloads
689 Views
5MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Міністерство освіти та науки України Львівський національний університет імені Івана Франка
Бабенко В.В. ОСНОВИ ТЕОРІЇ ЙМОВІРНОСТЕЙ І СТАТИСТИЧНІ МЕТОДИ АНАЛІЗУ ДАНИХ У ПСИХОЛОГІЧНИХ І ПЕДАГОГІЧНИХ ЕКСПЕРИМЕНТАХ
Львів Видавничий центр ЛНУ імені Івана Франка 2006
ББК БУДК Рецензенти: д-р фіз.-мат. наук, проф. Я. І. Єлейко (Львів, ЛНУ ім. Івана Франка); д-р тех. наук, проф. Я. М. Костецька (Львів, національний університет „Львівська політехніка“); д-р фіз.-мат. наук, проф. М. С. Братійчук (Луцьк, Волинський державний університет ім. Лесі Українки); канд. філософських наук, проф. А.М. Гірник (Київ, національний університет „Києво-Могилянська академія”)
Бабенко В.В.
Б-
Основи теорії ймовірностей і статистичні методи обробки даних у психологічних і педагогічних експериментах.– Львів: Видавничий центр ЛНУ імені Івана Франка, 2006. – 168 с.
ISBNУ посібнику стисло викладено основи теорії ймовірностей та математичної статистики. Детально розглянуто методи перевірки статистичних гіпотез, які виникають підчас опрацювання результатів психологічних тестів та інших психолого-педагогічних експериментів. Показано реалізацію цих методів за допомогою пакетів прикладних програм MS Excel та Statistica 6.0. Велика кількість прикладів реальних психологічних досліджень, детальний аналіз їх статистичної обробки та інтерпретації результатів дасть змогу краще засвоїти застосування статистичних методів у психологічних дослідженнях. Для студентів педагогічних спеціальностей університетів.
ББК
ISBN-
© В.В. Бабенко, 2006 © Львівський національний університет імені Івана Франка, 2006
2
Вступ У більшості людей ставлення до статистики досить упереджене. Значна їх частина сприймає статистичні методи як засіб обґрунтування будь-якого бажаного результату. Карикатуристи малюють “статистика” як людину, чия голова засунута в холодильник, а ноги — в пічку, і який каже: “У середньому я почуваюсь чудово”. Медики часто переповідають анекдот про “середню температуру хворих у лікарні”. Однак людині, яка починає вивчати математичну статистику, варто відмовитись від такого її сприйняття. Будь-яка нісенітниця може бути однаково успішно висловлена як кількісно, так і словесно. І якщо ефективним засобом від словесної нісенітниці є здорова логіка, то від нісенітниці кількісної — математична статистика. На перший погляд психологія як наука про людину і математика — речі не поєднувані. Але математична статистика як розділ математики великою мірою завдячує своєму розвитку психології. Саме для потреб психології розроблялись Ф. Гальтоном початкові ідеї теорії кореляції і регресійного аналізу, Ч. Спірменом — рангова кореляція і однофакторний аналіз, Л. Терстоном — основи мультифакторного аналізу. У свою чергу розвиток статистичних методів розширив можливості психологічних досліджень та підвищив надійність їх результатів. Однак математична статистика — це все таки одна з галузей математичної науки, і тому вона послуговується характерною термінологією, використовує математичні методи досліджень, вивчення яких вимагає базових математичних знань. Тому у додатку 2 до цього посібника в довідковій формі викладено основні елементи вищої математики, необхідні для розуміння матеріалу. У додатку 3 наведено деякі команди математичного середовища Maple 8, які дають
3
змогу значну частину технічної роботи при обчисленнях перекласти на плечі комп’ютера. Основою математичної статистики є теорія ймовірностей. Тому перші два розділи посібника містять виклад основних положень теорії ймовірностей. У третьому розділі викладено елементи математичної статистики. У четвертому розділі посібника розглядається застосування методів математичної статистики до аналізу результатів психологічних досліджень. У цьому посібнику автор намагався викласти матеріал максимально просто, уникаючи доведень більшості тверджень, більшу увагу приділяючи застосуванню розглядуваних методів. У багатьох випадках у посібнику описуватиметься реалізація цих методів за допомогою стандартних програм статистичних досліджень.
4
І. Основи теорії ймовірностей Імовірність події Події (явища), які ми спостерігаємо можна розділити на три види. Подія, яка в певних умовах обов’язково відбувається називається достеменною подією. Подія, яка в певних умовах не може відбутися називається неможливою подією. Подія, яка в певних умовах може відбутись або не відбутись називається випадковою подією. Кожне повторення дослідження в цих умовах називають випробуванням. Прикладом достеменної події є падіння підкинутого вгору тіла в умовах земного тяжіння. Неможливою подією є, наприклад, випадання семи очок при киданні грального кубика, на гранях якого нанесені від однієї до шести точок. Прикладами випадкових подій є виграш у лотереї, випадання чотирьох очок на гральному кубику, народження у сім’ї дитини певної статі. Події будемо позначати великими буквами латинського алфавіту (або буквами з індексами), наприклад, А, В, С1, С2, D5. Достеменну подію позначатимемо буквою І, а неможливу — буквою О. Теорія ймовірностей не може передбачити чи здійсниться окрема випадкова подія чи ні. Інакше складається ситуація, якщо випадкова подія може багато раз спостерігатися при виконанні одних і тих же умов. Виявляється, що більшість однорідних випадкових подій незалежно від їх природи підпорядковується певним закономірностям, які називають імовірнісними. Вивчення імовірнісних закономірностей масових однорідних випадкових подій є предметом теорії ймовірностей. Будь-яка подія розглядається як результат випробування. Події називають несумісними, якщо здійснення однієї з них виключає здійснення інших подій у тому ж випробуванні. Декілька подій утворюють повну систему (групу), якщо підчас випробування достеменною подією є здійснення хоча б однієї з них. Події називають рівноможливими, якщо здійснення будь-якої з них не має жодних переваг перед здійсненням іншої. Кожен з можливих результатів випробування 5
називатимемо елементарним виходом. Очевидно, всі елементарні виходи утворюють повну систему несумісних подій. Вихід будемо називати сприятливим для даної події, якщо ця подія здійснюється за такого виходу. Імовірністю події А (позначатимемо Р(А) ) будемо називати відношення кількості сприятливих для події А елементарних виходів, до загальної кількості рівноможливих несумісних елементарних виходів. Отже, імовірність події А можна обчислити за формулою P ( A)
m , n
( І.1)
де т — кількість сприятливих для події А елементарних виходів, п — загальна кількість можливих елементарних виходів у випробуванні. Тут вважається, що всі виходи є несумісні, рівноможливі і утворюють повну систему. Приклад 1. В урні міститься три білих і одна чорна кульки. Навмання витягують дві кульки. Знайти імовірність витягання кульок різних кольорів. Розв’язання: Нехай подія А — витягання двох кульок різних кольорів. Дві кульки з 4! чотирьох можна вибрати C 42 6 способами. Тобто кількість рівноможливих елемента2!2! рних виходів у випробуванні дорівнює 6. Кількість сприятливих для події А виходів дорів3 нює 1 C 31 1 3 3 . Отже, ймовірність події А дорівнює P( A) 0,5 . 6 Приклад 2. Дитина, яка не вміє читати, складає в ряд кубики з буквами Д, І та Л. Яка ймовірність, що вона утворить слово? Розв’язання: Нехай подія С — утворення слова. Можливі складання утворюють множину {ДІЛ, ДЛІ, ІЛД, ІДЛ, ЛІД, ЛДІ}, яка містить 6 елементів. Сприятливими для події С будуть складання ДІЛ та ЛІД. Отже, P( C )
2 1 . 3 6
Сформульоване означення називають класичним означенням імовірності. На основі даного означення можна сформулювати такі властивості імовірності. 1. Імовірність достеменної події дорівнює 1. ( P( I ) 1 ) 2. Імовірність неможливої події дорівнює 0. ( P( O ) 0 ) 3. Імовірність випадкової події є додатне число менше, ніж 1. ( 0 P( A ) 1 ) Класичне означення ймовірності передбачає, що кількість елементарних виходів у випробуванні скінчене. Однак на практиці часто зустрічаються ви-
6
пробування з нескінченою кількістю елементарних виходів. Крім того дуже часто неможливо подати результат випробування як сукупність елементарних виходів, а тим більше обґрунтувати їх рівноможливість. Це вказує обмеженість класичного означення імовірності. Подолати цей недолік дозволяє аксіоматичне означення імовірності. Множину всіх елементарних виходів при даному випробуванні будемо називати простором елементарних подій і позначатимемо Ω. Кожний з елементарних виходів називатимемо точкою простору Ω і позначатимемо ω. Будь-яка подія являтиме собою деяку множину елементарних подій (точок простору Ω). Неможлива подія є порожньою множиною O . Достеменна подія збігається з простором Ω I . Сумою або об’єднанням двох подій А і В (позначатимемо А + В або A B ) будемо називати подію, яка полягає у здійсненні хоча б однієї з подій А чи В. Добутком або перетином двох подій А і В (позначатимемо А В або A B ) будемо називати подію, яка полягає у здійсненні одночасно обох подій А і В. Протилежною до події А (позначатимемо A ) будемо називати подію, яка полягає у нездійсненні події А. Очевидно, A \ A . Справджуються рівності: A A A , A A A , A I I , A I A ,
AO O ,
A A I ,
A B C A C B C ,
A A O ,
A A,
A B B A,
A O A, A B B A ,
A B C A B A C , A B A B , A B A B .
Множину подій, для яких визначатимемо імовірності будемо називати полем подій і позначати S . Поле подій S має володіти такими властивостями: 1. A S A S , тобто разом з кожною подією А поле подій містить протилежну до неї подію. 2. A S B S A B S , тобто разом з будь-якими двома подіями поле подій містить їх перетин. 3. ( i N : Ai S) Ai S , тобто будь-яке злічене iN
об’єднання множин з поля подій також належить цьому полю.
7
У цьому випадку кажуть, що S є борелівським полем подій або σ-алгеброю подій. Імовірність подій на σ-алгебрі S вводимо таким чином. Функція, P : S R , для якої виконуються аксіоми 1. A S : P ( A ) 0 ; 2. P Ai P Ai , якщо Ai A j , коли i j ; i 3. P ( ) 1
i
називається розподілом імовірностей на σ-алгебрі S, а значення Р(А) цієї функції — імовірністю події А. Зауважимо, що перелічені аксіоми відповідно означають: 1 — кожна подія має невід’ємну ймовірність; 2 — імовірність об’єднання несумісних подій дорівнює сумі їх ймовірностей; 3 —імовірність достеменної події дорівнює 1. Простір елементарних подій Ω із заданою на ньому σ-алгеброю S і визначеним на S розподілом імовірностей Р називається імовірнісним простором (Ω, S, Р). Отже, математичною моделлю будь-якого випадкового явища служить відповідний імовірнісний простір. Класичне означення імовірності відповідає імовірнісному простору із скінченою кількістю точок. Приклад 3. Два студенти домовились зустрітись за кавою між дванадцятою і половиною першої дня. Той, хто прийде на зустріч першим, чекає на іншого 15 хвилин, після чого йде. Яка ймовірність, що вони зустрінуться? Розв’язання: Оскільки прихід кожного із студентів рівномо-
y 0,5
жливий в будь-який момент часу між дванадцятою та половиною першої, то простір можна розглядати як множину точок (х, у) квад-
¼
рата [0; 0,5][0; 0,5] (мал. 1). Будь-яка підмножина цієї множини буде елементом σ-алгебри
8
S.
Імовірність Р довільної події А введемо як
O
В ¼ Рис. 1.
0,5 x
відношення площі фігури, утвореної точками, що складають цю подію, до площі всього квадрата, тобто P( A )
SA 1
4
4 S A . Введена таким чином імовірність задовольняє систему
аксіом (1-3). Позначимо через В подію “студенти зустрінуться”. Подія В здійсниться, якщо моменти приходу кожного зі студентів відрізнятимуться не більше, ніж на ¼ години. Таким чином події В відповідатиме множина точок квадрата, координати яких задовольнятимуть нерівності x y
1 . На мал. 1 ця множина заштрихована. Тоді 4
0 ,25 0,25 P( B ) 4 S B 4 0 ,25 2 0,75 . 2
Зауважимо, що імовірність неможливої події дорівнює нулю. Що ж до оберненого твердження, то воно, на відміну від класичного випадку, справджується не завжди. Так в останньому прикладі імовірність події “обидва студенти прийдуть одночасно” (на мал. 1 це відрізок прямої у=х) дорівнює нулю, хоча ця подія не є неможливою.
Формула повної ймовірності Зауважимо, що на σ-алгебрі S сумі подій А і В відповідає об’єднання множин А і В. Тому, якщо події А і В несумісні, то
P A B P A P B .
( І.2)
Оскільки події А і A несумісні і A A , то P ( A) P( A ) P() 1 і
P ( A ) 1 P ( A) .
( І.3)
Якщо події A1 , A2 , A3 , , An утворюють повну систему несумісних подій, то A1 A2 A3 An I і
P A1 P A2 P A3 P An 1 .
( І.4)
Якщо при знаходженні ймовірності події у випробуванні ніяких додаткових умов, крім умов самого випробування, не накладається, то знайдена ймові9
рність називається безумовною. Якщо накладаються додаткові умови, то знайдену ймовірність називають умовною. Умовною ймовірністю PA B називають імовірність події В, знайдену в припущенні, що подія А здійснилася. Умовна ймовірність PA B дорівнює відношенню ймовірності добутку подій А і В до ймовірності події А, тобто
PA B
P AB . P A
( І.5)
Приклад 3. В урні є 5 білих і 4 чорних кульки. З неї послідовно без повернення виймають дві кульки. Знайти ймовірність, що друга кулька виявилась білою, якщо: а) перша кулька була білою? б) перша кулька була чорною? Розв’язання: Введемо позначення: А — перша кулька була білою; В — перша кулька була чорною; С — друга кулька виявиться білою. а) Якщо перша кулька виявилась білою, то в урні залишилось 4 білих і 4 чорних кульки. Тому ймовірність, що друга кулька виявиться білою дорівнює PA C
4 0,5 . 8
б) Якщо перша кулька виявилась чорною, то в урні залишилось 5 білих і 3 чорних кульки. Тому ймовірність, що друга кулька виявиться білою дорівнює PB C
5 0 ,625 . 8
З другого боку ймовірність, що перша кулька виявилась білою дорівнює P A
5 . 9
Знайдемо ймовірність P AC . Всеможливих послідовних виборів двох кульок є 9 8 = 72. Сприятливих для АС несумісних рівноможливих виходів є 5 4 = 20. Тому P AC
PA C
4 45 5 P AC 5 18 0,5 . Аналогічно PB , PBC і 9 72 18 P A 59
PB C
20 5 . 72 18
P BC P B
5 18 0,625 . Як бачимо результат не залежить від того, чи умовна ймовірність обчислю49
ється безпосередньо, чи на основі формули (І.5).
З формули ( І.5) безпосередньо випливає формула для обчислення ймовірності добутку двох подій.
P AB P APA B PB PB A
10
( І.6)
Дві події А і В називаються незалежними, якщо ймовірність однієї з них не залежить від того, чи інша подія відбулась, тобто P A PB A чи
P B PA B . Очевидно, для незалежних подій справджується формула
P AB P APB .
( І.7)
Можна сказати, що дві події незалежні, якщо ймовірність їх добутку дорівнює добутку їх імовірностей. Для довільних подій А і В справджується формула
P A B P A P B P A B .
( І.8)
Дійсно, A B AB A B AB . Тут події AB , A B та AB несумісні, тому
P A B P AB P A B P AB . Але A AB AB , де AB і AB — несумісні, тому P AB P A P AB . Так само P A B PB P AB . Тоді P A B
P A P AB P B P AB P AB P A PB P A B . Приклад 4. Два стрільці одночасно стріляють по одній мішені. Яка ймовірність попадання в мішень хоча б одним стрільцем, якщо ймовірність попадання в мішень першим стрільцем дорівнює 0,6, а другим — 0,65? Розв’язання: Введемо позначення: А — попадання в мішень першим стрільцем, В — попадання в мішень другим стрільцем. Тоді P A 0,6 , PB 0,65 . Оскільки попадання у мішень кожним із стрільців події незалежні, то P AB 0,6 0,65 0 ,39 . Шукана ймовірність дорівнює P A B P A PB P AB 0,6 0,65 0 ,39 0,86 .
Нехай подія А може здійснитись за умови здійснення однієї з несумісних подій H 1 , H 2 , , H n , які утворюють повну систему. Тоді здійснення події А означатиме здійснення однієї з несумісних подій AH 1 , AH 2 , , AH n . Отже,
P A P AH 1 P AH 2 P AH n . Але P AH i P H i PH A, i 1..n і тоi
му
P A PH 1 PH A PH 2 PH A PH n PH A . 1
2
n
( І.9)
Формула ( І.9) носить назву формули повної ймовірності. Приклад 5. Агентство із страхування цивільної відповідальності водіїв розділяє їх на три групи: група тих, що практично не ризикують, група тих, що іноді ризикують і група тих,
11
що дуже часто ризикують. Агентство вважає, що з усіх водіїв, які застрахували автомобілі, 30% належить до першої групи, 50% — до другої групи і 20% — до третьої. Ймовірність того, що протягом року водій з першої групи хоча б один раз потрапить в аварію, складає 0,01, для водія з другої групи — 0,02, а для водія з третьої групи - 0,09. Яка ймовірність, що навмання вибраний водій потрапить в аварію протягом року? Розв’язання: Введемо позначення: А — водій потрапить в аварію протягом року, Н1 — водій належить до першої групи, Н2 — водій належить до другої групи, Н3 — водій нале-
PH 1 0 ,3 ,
жить до третьої групи. Тоді
PH 2 0 ,5 ,
PH 3 0 ,2 ,
PH1 A 0 ,01 ,
PH 2 A 0,02 , PH 3 A 0 ,09 . За формулою повної ймовірності P A P H 1 PH1 A P H 2 PH 2 A P H 3 PH 3 A 0 ,3 0,01 0,5 0 ,02 0 ,2 0,09 0 ,031 .
Формули Байєса Нехай подія А може здійснитись за умови здійснення однієї з несумісних подій H 1 , H 2 , , H n , які утворюють повну систему. Події H 1 , H 2 , , H n називають гіпотезами. Якщо подія А у випробуванні здійснилась, то повинна здійснитись одна з подій H 1 , H 2 , , H n . Виникає питання про переоцінку ймовірностей гіпотез при умові, що подія А у випробуванні здійснилась. За формулою ( І.6) ймовірність добутку подій А і Ні дорівнює PH i PH A P AH i P APA H i P H i PH A , тому PA H i або, враховуюP A чи ( І.9), PH i PH A PA H i . ( І.10) P H 1 PH A PH 2 PH A PH n PH A Формули ( І.10) називають формулами Байєса або формулами ймовірносi
i
i
1
n
2
тей гіпотез. Вони дозволяють переоцінити ймовірність гіпотез після того, як подія здійснилась. Приклад 6. В умовах прикладу 5 знайти ймовірність, що водій, який потрапив в аварію протягом року, належить до третьої групи. Розв’язання: За формулами Байєса PA H 3
12
PH 3 PH 3 A P A
0 ,2 0,09 0 ,58 . 0,031
Задачі до розділу І. І.1. Підчас розіграшу лотереї 5 з 36 витягнули першу кулю. Яка ймовірність, що її номер містить: а) цифру 0; б) цифру 2;
в) цифру 5; г) цифру 8?
І.2. Кинуто два гральні кубики. Яка ймовірність що: а) сума очок дорівнює 7; б) сума очок дорівнює 10; в) сума очок дорівнює 10, а модуль різниці — 4; г) сума очок дорівнює 10, а добуток — 30? І.3. Куб, всі грані якого пофарбовані, розрізали на 125 однакових кубиків. Яка ймовірність, що навмання вибраний кубик має: а) одну; б) дві; в) три пофарбовані грані? І.4. Абонент забув дві останні цифри телефонного номера і, пам’ятаючи, що вони різні, набрав їх навмання. Яка ймовірність, що абонент набрав правильний номер? І.5. В урні міститься 10 білих і 5 синіх кульок. Навмання вибирають 3 кульки. Яка ймовірність, що: а) всі вони виявляться білими; б) одна з кульок — біла, а дві інші — сині; в) одна з кульок — синя, а дві інші — білі? І.6. Площина розлінована паралельними прямими на відстані 2а одна від одної. На площину навмання кидають монету радіусом r a . Яка ймовірність, що монета не перетне жодної з прямих? І.7. На лист паперу в клітинку зі стороною а навмання кидають монету радіуса r
a . Яка ймовірність, що монета не перетне жодної з ліній сітки? 2
Вважається, що ймовірність попадання точки в плоску фігуру пропорційна площі фігури і не залежить від її розміщення? І.8. Дві студентки домовились зустрітись з третьої до четвертої години дня. Кожна з них вибирає час зустрічі самостійно. Перша, хто приходить на зустріч, чекає іншу протягом двадцяти хвилин, після чого йде. Яка ймовірність, що вони зустрінуться? І.9. Навмання вибирається два числа з проміжку [0; 1]. Яка ймовірність, що їх сума не перевищує одиниці, а добуто не менший, ніж 0,16? 13
І.10. Два лучники одночасно стріляють у мішень. Імовірність попасти в мішень для першого лучника складає 0,8, а для другого — 0,6. Яка ймовірність, що в мішень влучить тільки одна стріла? І.11. Імовірність здійснення кожної з двох незалежних подій відповідно дорівнюють p1 і p 2 . Яка ймовірність здійснення лише однієї з цих двох подій? І.12. Імовірність, що при вимірюванні деякої величини буде допущена істотна похибка дорівнює 0,4. Яка ймовірність, що в трьох незалежних вимірюваннях істотна похибка буде допущена лише один раз? І.13. Імовірність хоча б одного влучання в мішень з трьох пострілів дорівнює 0,784. Яка ймовірність влучання в мішень з одного пострілу? І.14. Проведено флюорографічне обстеження 10000 людей віком понад 60 років. У 3300 з них виявлено захворювання легень. 4000 з обстежених палять, а 1800 серед них мають хворі легені. Чи можна стверджувати, що паління і захворювання легень у обстеженій групі є незалежними подіями? І.15. У спортивному таборі відпочиває група студентів-психологів серед яких 70% першокурсників і 30% другокурсників. Серед першокурсників 10% хлопців, а серед другокурсників — 5%. Всі хлопці по черзі заготовляють дрова для кухні. Яка ймовірність, що довільно вибраного дня заготовляє дрова першокурсник? І.16. Відомо, що 37,5% людей має групу крові А, 20,9% — групу В, 7,9% — групу АВ і 33,7% — групу О. Людина з групою крові О може бути донором для будь-кого, з групою А — для людей з групою А або АВ, з групою В — для людей з групою В або АВ, а з групою АВ — тільки для людей з групою АВ. Яка ймовірність, що випадкова людина зможе бути донором для потерпілого? І.17. В умовах попередньої задачі випадкова людина виявилась донором для потерпілого. Яку групу крові найімовірніше має донор? І.18. У середньому один хлопчик на 720 народжується із зайвою Y-хромосомою. Агресивна поведінка у таких хлопчиків зустрічається у 19 разів часті-
14
ше, ніж у решти. Психолог зауважив агресивність хлопчика. Яка ймовірність, що цей хлопчик має зайву Y-хромосому? Яка ймовірність, що її немає? І.19. Імовірність виявити патологію при обстеженні дорівнює 1 , а визнати хворою здорову людину — . Яка ймовірність, що визнана хворою людина насправді здорова, якщо частка хворих серед населення дорівнює ?
ІІ. Випадкова величина Поняття випадкової величини Доволі часто результатам випробування можна поставити у відповідність певні числові значення. Числову функцію задану на деякому імовірнісному просторі називають випадковою величиною. Випадкова величина породжує імовірнісний простір, елементами якого є значення або множини значень цієї випадкової величини, які утворюють певну σ-алгебру, і які можуть набуватися з певною ймовірністю. Наприклад, при киданні грального кубика може випасти 1, 2, 3, 4, 5 або 6 очок. Імовірність кожної з цих подій дорівнює 1/6. Даний експеримент описується випадковою величиною, яка може набувати значень 1, 2, 3, 4, 5 або 6 з однаковими ймовірностями 1/6.
Випадкові величини поділяють на неперервні і дискретні. Розглянута в попередньому прикладі величина є дискретною випадковою величиною. Дискретна випадкова величина може набувати лише певних окремих значень із заданими ймовірностями. Дискретними випадковими величинами є, наприклад, кількість хлопчиків на 1000 новонароджених, кількість абонентських з’єднань на АТС протягом доби, кількість завдань тесту виконаних досліджуваним за певний проміжок часу. Неперервна випадкова величина може набувати будьяких значень з певного інтервалу числової прямої чи об’єднання інтервалів із заданими ймовірностями. Прикладом неперервної випадкової величини може служити тривалість очікування автобуса на зупинці, час з моменту подразнення до появи реакції досліджуваного на подразник, кутова величина поля зору лю-
15
дини і т.п. Очевидно, що неперервна випадкова величина може набувати незлічену кількість значень, і тому ми можемо говорити лише про імовірність потрапляння цих значень в деякий інтервал, а не про ймовірність набуття неперервною випадковою величиною конкретного значення (вона завжди дорівнює нулеві). Поряд із розглянутими вище скалярними випадковими величинами доводиться мати справу з векторними випадковими величинами. Випадковим вектором або векторною випадковою величиною будемо називати будь-яку впорядковану сукупність скалярних випадкових величин. Так результат опитування людини за опитувальником 16PF Кеттела можна розглядати як 16-ти вимірний дискретний випадковий вектор. Розподілом випадкової величини називатимемо розподіл імовірностей значень випадкової величини у відповідному імовірнісному просторі. Випадкові величини будемо позначати великими буквами, наприклад, X, Y, Z , а їх значення малими буквами x, y, z. Приклад 1. Розподіл двовимірної випадкової величини X ,Y задано таблицею Y X
-1
0
0 1 8 1 12 2 5 24 1 6 Знайти розподіл випадкової величини Z=XY.
1
7 24 18
Розв’язання: Випадкова величина Z може набувати значень –2, 0 або 2. Значення –2 вона набуватиме, якщо величина X ,Y набуває значення (2,–1), значення 2 набуватиме, якщо величина X ,Y набуває значення (2, 1), у всіх інших випадках вона набуватиме значення 0. Отже, PZ 2 P X 2 ,Y 1 5 24 , PZ 2 P X 2 ,Y 1 1 8 , PZ 0
P X ,Y 0,1, 0 ,0 , 0 ,1, 2,0 1 8 1 12 7 24 1 6 2 3 . Розподіл випадкової величини Z має вигляд: zi pi
16
–2 5 24
0 23
2 18
Функція розподілу випадкової величини Функцією розподілу випадкової величини Х будемо називати функцію, яка кожному значенню аргументу х ставить у відповідність імовірність того, що випадкова величина набуває значення меншого, ніж х.
F x P X x . (ІІ.1) Яких би значень не набувала випадкова величина, її функція розподілу визначається на всій дійсній осі. Функція розподілу випадкової величини є імовірністю і тому вона має такі властивості. 1. Значення функції розподілу змінюються в межах 0 F x 1 . 2. Функція розподілу монотонно неспадна, тобто x 2 x1 F x 2 F x1 . Дійсно F x 2 P X x 2 PX x1 x1 X x 2 P X x1 P x1 X x 2
F x1 P x1 X x 2 F x1 . 3. Імовірність попадання значень випадкової величини в інтервал x1 ; x 2 обчислюється за формулою
P x1 X x 2 F x2 F x1 . (ІІ.2) 4. Оскільки подія x є неможливою, а подія x — достеменною, то lim F x 0 , а lim F x 1 . x x 5. Функція розподілу F є неперервною зліва в кожній точці своєї області визначення, тобто lim F x F a . x a 0
Приклад 2. Побудувати функцію розподілу випадкової величини, якою є кількість очок, що випадає при киданні грального кубика. Розв’язання: Розподіл вказаної випадкової величини має вигляд хі 1 2 3 4 5 6 рі 1 / 6 1 / 6 1 / 6 1 / 6 1 / 6 1 / 6 Будуємо функцію розподілу цієї величини. Оскільки при киданні грального кубика не може випасти менше ніж одне очко, то для x ;1 маємо F x 0 . Для проміжку
1; 2 подія
Х < х полягатиме у випаданні одного очка, тому для цього проміжку F x
Для проміжку
2; 3
1 . 6
подія Х < х полягатиме у випаданні одного очка або двох, тому для
у 1 /6 2 /3 1 /2 5
17
цього проміжку F x
1 1 1 . Міркуючи аналогічно отримуємо 6 6 3
0 , x 1, 1 ,1 x 2, 6 1 3 , 2 x 3, F x 1 2 , 3 x 4, а її графік: 2 , 4 x 5, 3 5 6 ,5 x 6, 1, x 6 ,
Приклад 3.
Розподіл випадкової величини задано співвідношенням P X k
c , k 1, 2 , ... Визначити константу с, записати функцію розподілу та знайти ймовірk k 1
ність того, що випадкова величина набуває значень менших, ніж 15, але не менших, ніж 3. Розв’язання: Врахувавши, що X достовірна подія, маємо 1 P X n n 1 1 1 1 1 P X k c c lim c lim c lim 1 c . Отже, n n n k 1 n 1 k 1 k 1 k k 1 k 1 k k 1 k 1 k
k
c 1 . Для x 1 маємо P X x 0 , якщо k x k 1, k N , то P X x P X i i 1
k
1 1 k i i 1 1 k 1 k 1 . Отже, i 1 F 15 F 3
x 1 0 , F x k . Далі k 1 , k x k 1, k N
P3 x 15
15 3 3 . 16 4 16
Приклад 4. Функція розподілу випадкової величини має вигляд F x a arctg3 x b . Визначити константи а і b, побудувати графік функції розподілу та знайти ймовірність того,
що значення випадкової величини потраплять у проміжок 1 3 ;1 Розв’язання: Врахувавши, що lim F ( x) 0 , x
3 .
lim F ( x) 1 , а lim arctg 3x 2 ,
x
x
a b 1 2 lim arctg 3x 2 , отримуємо . Розв’язавши останню систему знаходимо x a b 0 2 1 1 a , b=0,5 , тобто функція розподілу задається формулою F x arctg3x 0,5 .
18
Щоб побудувати графік функції розподілу, використаємо пакет Maple. Введемо команду with(plots): plot(1/Pi*arctan(3*x)+0.5,x=-3..3); і отримаємо графік функції розподілу (рис.3).
Рис.3. Оскільки для неперервно розподіленої випадкової величини імовірність, що її значен-
ня попадає в задану точку, дорівнює нулеві, то P X 1 3 ;1
P X 1
3 F1
3 P X 1 3 ;1
3
3 F 1 3 0 5 6 1 4 7 12 .
Щільність розподілу неперервно розподіленої випадкової величини Якщо випадкова величина розподілена неперервно, то кількість значень, яких вона може набувати нескінченна, а імовірність, з якою вона набуває кожного конкретного значення, дорівнює нулю. На відміну від дискретно розподіленої випадкової величини така ймовірність не характеризує розподіл величини неперервної. Проте кожному значенню аргументу х можна поставити у відповідність число f x lim x 0
P X x, x x , яке описує кожну точку х границею x
відношення імовірності попадання значень випадкової величини Х в деякий окіл цієї точки до величини цього околу. Якщо врахувати, що
f x lim x 0
P X x,x x F x x F x lim F x , x 0 x x
то щільністю розподілу f(x) неперервної випадкової величини Х будемо називати похідну її функції розподілу:
F x f x
(ІІ.3)
Щільність розподілу неперервної випадкової величини має такі властивості: 19
1. Щільність розподілу завжди невід’ємна ( f x 0 ). Дійсно, оскільки функція розподілу F x монотонно неспадна, то її похідна в жодній точці не може бути від’ємною. 2. Функція розподілу неперервної випадкової величини визначається через щільність її розподілу за формулою x
F x
f x dx
(ІІ.4)
Формулу (ІІ.4) отримуємо, проінтегрувавши рівність (ІІ.3) по проміжку
; x . 3. Має місце умова нормування
f x dx 1
(ІІ.5)
На підставі (ІІ.4)
f x dx F 1
4. Імовірність попадання значень неперервної випадкової величини в заданий інтервал обчислюється за формулою b
P X [a; b] P X (a; b) P X (a; b] P X [a; b) f x dx .
(ІІ.6)
a b
Дійсно, P X [a; b) F b F a
a
b
f x dx f x dx f x dx .
a
x0 0, Приклад 5. Функція розподілу випадкової величини F x 1 cos x 2, 0 x . 1, x
Знайти щільність розподілу та побудувати графіки функції розподілу та щільності розподілу. Розв’язання: Продиференціювавши вираз для функції розподілу, знаходимо щільність 0, x 0 розподілу заданої випадкової величини f x 0 ,5sin x , 0 x . Як бачимо, випадкова ве 0, x
личина може набувати значень лише з проміжку 0; . Графіки функції розподілу та щільності розподілу будуємо, використовуючи пакет Maple. Введемо команди f:=x->piecewise(x0 and xPi,0);
20
F:=x->piecewise(x0 and xPi,1); with(plots):plot([f(x),F(x)],x=-4..4); і отримаємо шукані графіки (рис.4).
Рис.4. Приклад 6. Щільність розподілу випадкової величини Х задана співвідношенням C x 4 , x 1 . Визначити сталу С та знайти імовірність попадання випадкової величини f x 0 , x 1
в проміжок [0; 4].
Розв’язання: Оскільки
C f x dx 1 , то x 4 dx 1,
C 3x 3
1
1, 1
1 C 1 , С = 3. Отже, 3
4
4 4 3 x 4 , x 1 3 1 1 . Далі, P 0 x 4 f x dx 4 dx 3 f x 1 0,984375 . 64 x 1 0 1 x 0 , x 1
Характеристики розподілу випадкової величини Щоб охарактеризувати випадкову величину достатньо задати її функцію розподілу. Однак в багатьох практичних задачах ця інформація є занадто повною, достатньо знати лише деякі числа, що характеризують розподіл, тобто числові характеристики розподілу. Такими характеристиками є математичне сподівання, дисперсія, середньо квадратичне відхилення, асиметрія, ексцес, квантилі. Математичне сподівання випадкової величини Математичним сподіванням дискретно розподіленої випадкової величини будемо називати суму добутків значень випадкової величини на їх імовірності.
MX x k P X x k x k p k k
(ІІ.7)
k
Приклад 7. Знайти математичне сподівання випадкової величини, якою є кількість очок, що випадає при киданні грального кубика. Розв’язання: Розподіл вказаної випадкової величини має вигляд
21
хі 1 2 3 4 5 рі 1 / 6 1 / 6 1 / 6 1 / 6 1 / 6 Тому користуючись формулою (ІІ.7) знаходимо MX 1
6 /6
1
1 1 1 1 1 1 21 2 3 4 5 6 3,5 . 6 6 6 6 6 6 6
Математичним сподіванням скалярної неперервно розподіленої випадкової величини будемо називати інтеграл по всій дійсній осі від добутку випадкової величини на її щільність розподілу.
MX xf x dx .
(ІІ.8)
Приклад 8. Знайти математичне сподівання випадкової величини Т, заданої функціt0 0, єю розподілу F t . 1 1 , t 0 3 1 t
Розв’язання: Продиференціювавши F t знаходимо щільність розподілу випадкової величини Т : 0, t 0 f t 3 . 1 t 4 , t 0
Далі за формулою (ІІ.8) отримуємо MT tf t dt
2tdt
1 t 4 .
Виконавши команду Maple:
0
int(2*t/(1+t)^4,t=0..infinity);, знаходимо МТ = 0,5.
Математичне сподівання випадкової величини має такі властивості. 1. Математичне сподівання сталої випадкової величини дорівнює цій величині.(Мс = с, де с = const). 2. Математичне сподівання суми двох випадкових величин дорівнює сумі їх математичних сподівань. (M(X + Y) = MX + MY). 3. Математичне сподівання добутку двох незалежних випадкових величин дорівнює добутку їх математичних сподівань. (M(X Y)=MX MY). 4. Сталу величину можна виносити за знак математичного сподівання. (M(сX) = сMX, де с = const).
22
5. Математичне сподівання відхилення випадкової величини від свого математичного сподівання дорівнює нулеві. (М(Х – МХ) = 0). Різниця між випадковою величиною і її математичним сподіванням називається центрованою випадковою величиною. Властивість 5 дозволяє стверджувати, що математичне сподівання центрованої випадкової величини дорівнює нулеві. Дисперсія та стандартне відхилення випадкової величини. Асиметрія і ексцес. Дисперсією випадкової величини називається математичне сподівання квадрата відхилення випадкової величини від свого математичного сподівання. Отже, для обчислення дисперсії дискретно розподіленої випадкової величини маємо формулу
DX x k MX p k , 2
(ІІ.9)
k
а для обчислення дисперсії неперервно розподіленої випадкової величини, щільність розподілу якої дорівнює f x , — формулу
DX x MX f x dx . 2
(ІІ.10)
Величина X
DX називається середнім квадратичним (або стандартним) від-
хиленням випадкової величини Х. Приклад 9. Знайти дисперсію та середнє квадратичне відхилення випадкових величин з прикладів 7 і 8. Розв’язання: Використовуючи формулу (ІІ.9) та знайдене у прикладі 7 значення математичного сподівання, для дисперсії кількості очок, що випадають при киданні грального кубика, отримуємо 1 2 1 2 1 2 1 2 1 2 1 2 3,5 3 3,5 4 3,5 5 3,5 6 3,5 2,25. 6 6 6 6 6 6 X 2,25 1,5 . Для неперервно розподіленої випадкової величини з прикладу 8 маємо
DX 1 3,5
2
23
DX
0
3 t 0,5 f t dt t 0,5 1 t 4 dt . Виконавши команду Maple: int(3*(t-1/2)^2
/(t+1)^4,t=0..infinity);, отримаємо DX = 0,75, а X 0,75 0,866 .
Дисперсія випадкової величини має такі властивості. 1. Дисперсія сталої величини дорівнює 0. 2. Сталий множник можна виносити в квадраті за знак дисперсії D(cX) = c2DX. 3. Дисперсія суми двох незалежних випадкових величин дорівнює сумі їх дисперсій. 4. Дисперсія випадкової величини дорівнює різниці математичного сподівання квадрата випадкової величини і квадрата її математичного сподівання
DX M X 2 MX . 2
Дійсно,
DX M X MX M X 2 2 X MX MX M X 2 2
2
2MX MX MX M X 2 MX . X MX Випадкова величина Y називається нормованою випадковою X 2
2
величиною. Її математичне сподівання MY 0 , а дисперсія DY 1 . Числа 3
AX
M X MX
(ІІ.11)
X 3
та 4
X
M X MX
X 4
3
(ІІ.12)
називаються відповідно асиметрією та ексцесом випадкової величини Х. Зауважимо, що математичне сподівання, дисперсія, середньоквадратичне відхилення, асиметрія, ексцес випадкової величини існують не завжди. Наприклад, для випадкової величини із щільністю f x чин не існує.
24
1 x 2 1
жодна з цих вели-
Квантилі Квантилем p порядку р p 0;1 розподілу випадкової величини будемо називати точку дійсної осі, в якій функція розподілу цієї випадкової велименших, ніж р, значень до більших, ніж р. Тобто,
чини переходить від
F p p , а F p 0 p . Квантилі розподілу будь-якого порядку існують для кожної випадкової величини, однак можуть визначатись неоднозначно. Найчастіше розглядають медіану, квартилі, децилі та процентилі розподілу. Медіаною розподілу випадкової величини називають квантиль 1 . 2
Квантилі 1 , 3 — називають квартилями, а квантилі 0 ,1 , 0 , 2 , 0,3 ,... та 4
4
0 ,01 , 0 ,02 , 0 ,03 ,... — відповідно децилями та процентилями розподілу. На рис.5 зображено медіану та квартилі випадкової величини, заданої своєю функцією розподілу.
1 ¾ ½ ¼ ξ¼
ξ½ ξ¾
x
Рис. 5 Квантилі можуть як завгодно точно характеризувати розподіл випадкової величини, якщо взяти їх достатню кількість.
Деякі дискретні розподіли Розподіл Бернуллі Випадкова величина Х має розподіл Бернулі з параметром 0 p 1 , якщо хі 0 1 рі 1– р р Її математичне сподівання і дисперсія відповідно дорівнюють: 25
MX 0 (1 p) 1 p p, DX p 2 (1 p) (1 p) 2 p p(1 p) Розподіл Бернуллі відіграє фундаментальну роль в теорії ймовірностей, оскільки він є моделлю будь-якого випадкового експерименту, виходами якого є дві протилежні події. Біномний розподіл Нехай проводиться п випробувань з можливими виходами А або А в кожному випробуванні, причому подія А має сталу ймовірність р появи в одній спробі (схема Бернуллі). Позначимо q 1 p . Тоді ймовірність появи події А k раз в п спробах дорівнює:
Pn k C nk p k q n k . (ІІ.13) Розподіл випадкової величини Х, яка дорівнює кількості появи події А в п випробуваннях називається біномним розподілом. Випадкову величину Х можn
на розглядати як суму X X i , де X i — випадкова величина з розподілом i 1
Бернулі, яка характеризує появу події А в і–ому випробуванні. Тому математичне сподівання, дисперсія та середнє квадратичне відхилення розподіленої за біномним розподілом випадкової величини дорівнюють:
MX np , DX npq, X npq .
(ІІ.14)
Приклад 10. Імовірність народження хлопчика дорівнює 0,52. Записати розподіл кількості хлопчиків серед 10 новонароджених та знайти його числові характеристики . Розв’язання: Значення ймовірностей для кожного значення випадкової величини, знаходимо за формулою (ІІ.13). Ввівши команду Maple: p:=0.52;q:=1-p;seq(binomial(10,i)*p^i*q^(10-i),i=0..10);, отримаємо шуканий розподіл: х р
0 1 2 3 4 5 6 7 8 9 10 0,0007 0,0070 0,0343 0,0991 0,1878 0,2441 0,2204 0,1364 0,0554 0,0133 0,0015
26
Графічно його можна зобразити таким чином: 0,3 0,25 0,2 0,15 0,1 0,05 0 0
1
2
3
4
5
6
7
8
9
10
Рис. 6. На основі формул (2.14) отримуємо МХ=5,2, DX=2,496, σX 1,58. Функцію розподілу даної випадкової величини можна задати у вигляді таблиці: х x0 0<x1 1<x2 2<x3 3<x4 4<x5 5<x6 6<x7 7<x8 8<x9 9<x10 x>10 F(x) 0 0,0007 0,0077 0,042 0,1411 0,3289 0,573 0,7934 0,9298 0,9852 0,9985
1
Отже, медіаною розподілу цієї випадкової величини є точка т = ½= 5, а квартилями — точки ¼= 4 та ¾= 6.
Розподіл Пуассона Випадкова величина Х має розподіл Пуассона з параметром 0 , якщо k P( X k ) e . (ІІ.15) k! Математичне сподівання, дисперсія та середньоквадратичне відхилення випадкової величини з розподілом Пуассона дорівнюють:
MX , DX , X . (ІІ.16) Розподіл Пуассона відповідає схемі Бернуллі з великим п і достатньо малим р, причому np , тому цей закон розподілу називають розподілом імовірностей масових рідкісних подій.
Деякі неперервні розподіли Рівномірний розподіл Випадкова величина називається рівномірно розподіленою на відрізку [a; b], якщо щільність її розподілу 27
1 , x [a; b] f ( x) b a 0, x [a; b]
(ІІ.17)
Функція розподілу такої випадкової величини описується рівністю
xa 0, x a F ( x) , x [a; b] b a x b 1,
(ІІ.18)
Її математичне сподівання, дисперсія і середнє квадратичне відхилення відповідно дорівнюють
MX
ab , 2
DX
(b a) 2 ba , X . 12 2 3
(ІІ.19)
Експонентний розподіл Випадкова величина має експонентний розподіл, якщо її щільність розподілу x0 0, f ( x) x , ( 0) (ІІ.20) e , x 0 ЇЇ функція розподілу задається рівністю
x0 0, F ( x) (ІІ.21) x 1 e , x 0 Математичне сподівання, дисперсія і середнє квадратичне відхилення випадкової величини розподіленої за експонентним законом дорівнюють:
MX
1 1 1 , DX 2 , X .
(ІІ.22)
Вправа. Побудуйте графіки щільностей та функцій рівномірного і експонентного розподілів в пакеті Maple.
Нормальний розподіл Важливу роль у теорії ймовірностей відіграє нормальний закон розподілу. Назва “нормальний” пояснюється тим, що через поширеність цього закону при описі більшості природніх явищ, він сприймався як норма (стандарт) роз28
поділу будь-якої випадкової величини. Цьому закону підпорядковані більшість числових характеристик властивостей особистості і людських здібностей. Випадкова величина має номальний розподіл (або розподіл Гауса), якщо щільність її розподілу задається рівністю x a 2
1 2 f ( x) e 2 . 2 Функція нормального розподілу має вигляд
(ІІ.23)
t a 2
1 x 2 2 F ( x) dt . (ІІ.24) e 2 Числові характеристики нормально розподіленої випадкової величини дорівнюють
MX a, DX 2 , X . (ІІ.25) Залежно від параметра графіки щільності розподілу та функції розподілу мають такий вигляд 1,2
f(x)
0,6
F(x)
1
σ = 0,7
σ=2
0,8 0,4
0,4
0,2
σ=2
0,2
σ = 0,7
0
0 -5
σ=1
0,6
σ=1
0
a
5
10
-5
-0,2
0
a
5
10
-0,2
Рис. 7.
Нормальний розподіл з параметрами a 0 та 1 називають стандартним нормальним розподілом. Для стандартного нормального розподілу складені таблиці його щільності та функції Лапласа ( x) F ( x) 0,5 (Див. таблиці 1 і 2 в додатку 1). В пакеті Excel для обчислення щільності та функції нормального розподілу служать статистичні функції НОРМРАСП і НОРМСТРАСП. Квантилі норма-
29
льного розподілу можна обчислити, користуючись функціями НОРМОБР та НОРМСТОБР. Імовірність попадання нормально розподіленої випадкової величини в заданий інтервал визначається за формулою
x a x a P ( x1 X x 2 ) F ( x 2 ) F ( x1 ) 2 1
(ІІ.26)
При використанні формули (ІІ.26) слід пам’ятати, що функція Лапласа Ф(х) є непарною функцією, тобто Ф(– х) = – Ф(х). Імовірність відхилення нормально розподіленої випадкової величини від свого математичного сподівання не більше, ніж на ε, обчислюється за формулою
P| X a | F (a ) F (a ) 2
(ІІ.27)
Зокрема, послідовно вибираючи , 2 , 3 , отримуємо:
P| X a | 21 0,6826 P| X a | 2 2 2 0,9544 P| X a | 3 23 0,9973
(ІІ.28)
Останнє співідношення виражає правило “трьох сігм”, яке полягає в тому, що практично всі значення нормально розподіленої випадкової величини відхиляються від свого математичного сподівання не більше, ніж на 3 . Приклад 11. Випадкова величина розподілена за нормальним законом з математичним сподіванням а = 10. Знайти ймовірність попадання випадкової величини в інтервал (20; 30), якщо ймовірність її попадання в інтервал (0; 10) дорівнює 0,3. Розв’язання: Оскільки ймовірність попадання нормально розподіленої випадкової величини у заданий інтервал визначається за формулою (ІІ.26), то 0,3 P(0 X 10)
10 10 0 10 10 10 (0) . З таблиці значень функції Лапласа визна чаємо
10 30 10 20 10 0,84 , звідки 11,9 . Далі P(20 X 30) (1,68) 11,9 11,9
(0,84) 0,4535 0,3 0,1535 .
30
Апроксимаційні формули Муавра-Лапласа Локальна теорема Муавра-Лапласа
npq , коли n , то
Якщо у схемі Бернулі величина
lim
n
Pn (k ) 1, 1 k np npq npq
x2
1 2 де ( x) e — щільність стандартного нормального розподілу. 2 Локальна теорема Муавра-Лапласа стверджує, що при достатньо великих п, імовірності для біномного розподілу мало відрізняються від значень щільності нормального розподілу з математичним сподіванням пр і дисперсією npq , тобто
k np 1 . npq npq Формула дає достатньо точне наближення для пр >10, nq >10. Pn k
(ІІ.29)
Приклад 12. Імовірність народження хлопчика дорівнює 0,52. Знайти ймовірність, що серед 100 новонароджених виявиться 51 хлопчик. Розв’язання: Застосовуючи формулу (ІІ.29) при п=100, р=0,52, q=0,48, отримуємо P100 (51)
npq 4,99 ,
1 51 52 0,2 0,2 0,2 0,2 0,2 0,391 0,0783 . 4,99 4,99
Інтегральна теорема Муавра-Лапласа В припущеннях локальної теореми Муавра-Лапласа справджується рівність
k np k1 np , Pn (k1 , k 2 ) 2 npq npq
(ІІ.30)
де Pn (k1 , k 2 ) — імовірність набуття випадковою величиною значень від k1 до k2, t2
1 x 2 ( x) e dt — функція Лапласа. 2 0 31
Приклад 13. В умовах попереднього прикладу знайти ймовірність, що серед 100 новонароджених виявиться від 40 до 60 хлопчиків. Розв’язання: Застосовуючи формулу (ІІ.29) при п=100, р=0,52, q=0,48, npq 4,99 , отримуємо 60 52 40 52 P100 (40, 60) (1,603) (2,405) 0,4452 0,4918 0,937 . 4,99 4,99
Деякі закони розподілу статистик Наведемо деякі важливі закони розподілу випадкових величин, які використовуватимуться нами при розв’язуванні задач математичної статистики. Розподіл χ2 Нехай X i — незалежні випадкові величини, що мають стандартний нормальний 2
n
X
розподіл.
Тоді
величина
п=3 п=6 п=9 п=12
2 i
2
має розподіл χ з п степе-
i 1
нями вільності, який задається щільністю Рис. 8 0, x 0 1 f ( x) e x / 2 x n / 21 , x 0 . При прямуванні кількості степенів сво 2 n / 2 t n / 21e t dt 0
боди до нескінченості розподіл наближається до нормального (рис.8). Розподіл Стьюдента Якщо Z — випадкова величина із стандартним нормальним розподілом, а V — незалежна від Z величина, що має розподіл 2 з k степенями вільності, то величина
T
32
Z V /k
n=10 n=3 n=1
має розподіл Стьюдента з k степенями вільності. З ростом k розподіл Стьюдента швидко наближається до нормального (рис.9). Розподіл Фішера-Снедекора
Рис. 9
Якщо U i V — незалежні випадкові величини, що мають розподіл 2 з k1 і k2 степенями вільності відповід-
k1=2, k2=3 k1=3, k2=5 k1=5, k2=7
но, то величина
F
U / k1 U / k2
має розподіл Фішера-Снедекора з k1, k2 степенями вільності (рис. 10). Рис. 10
Двовимірна випадкова величина Якщо на одному імовірнісному просторі задано дві випадкові величини (або п випадкових величин), то їх упорядковану пару (Х1, Х2) (впорядковану сукупність (Х1, Х2,..., Хп)) називають двовимірною (п – вимірною) випадковою величиною або двовимірним (п – вимірним) випадковим вектором. Надалі в основному розглядатимемо саме двовимірний випадковий вектор. Якщо випадкові величини Х1, Х2 — неперервні, то вектор (Х1, Х2) називають неперервним випадковим вектором. Коли ж Х1, Х2 — дискретні випадкові величини, то й вектор (Х1, Х2) називають дискретним. Функція розподілу двовимірної випадкової величини Розподіл двовимірного дискретного випадкового вектора X , Y можна задати у вигляді таблиці: X x1 x2 … хі … хn Y у1 p11 p21 … pi1 … pn1 33
… уj … уm Тут xi , i 1, n , y j , j 1, m
… … p1j p2j … … p1m p2m значення
pij P X xi Y y j . Зрозуміло, що
… … … … … pij … pnj … … … … … pim … pnm відповідно випадкових величин Х і Y, а n
m
p
ij
1.
i 1 j 1
Функція F x, y P ( X x Y y ) називається функцією розподілу ймовірностей двовимірної випадкової величини. Наприклад, якщо випадковий вектор X , Y заданий розподілом X 1 3 7 Y 2 0,03 0,5 0,2 4 0,15 0,1 0,02 то функція розподілу випадкового вектора X , Y матиме вигляд
0, x 1 y 2, 0,03, 1 x 3, 2 y 4, 0,18, 1 x 3, y 4, F x, y 0,53, 3 x 7, 2 y 4, 0,73, x 7, 2 y 4, 0,78, 3 x 7, y 4, 1, x 7, y 4. Функція розподілу ймовірностей двовимірного випадкового вектора має такі властивості. 1. Значення функції розподілу змінюються в межах 0 F x, y 1 . 2. Функція розподілу монотонно неспадна за кожним аргументом, тобто:
x2 x1 F x2 , y F x1 , y , y2 y1 F x, y2 F x, y1 . 3. Імовірність попадання значень випадкової величини в прямокутник
x1 ; x2 y1 ; y2 обчислюється за формулою P x1 X x2 y1 Y y2 F x2 , y2 F x1 , y2 F x2 , y1 F x1 , y1 . 34
4. Справджуються рівності: F , 0, F , y 0, F x, 0, F , 1 . 5. Границею функції F x, y розподілу ймовірностей, коли одна із змінних прямує до , є функція розподілу другої змінної: lim F x, y F1 x P X x , lim F x, y F2 y PY y . y
x
6. За кожним своїм аргументом функція розподілу F є неперервною зліва в будь-якій точці своєї області визначення, тобто lim F x, y F a, y , lim F x, y F x, b . x a 0
y b 0
Якщо випадковий вектор X , Y є неперервним, то функція F x, y неперервна на всій області визначення. Функцію
2 F x, y f x, y , xy (якщо вона існує) називають щільністю розподілу ймовірностей двовимірної випадкової величини.
1 15 , x 1;6 0; 3, Наприклад, функція f x, y є щільністю розподілу 0 , x 1 ; 6 0 ; 3 неперервної двовимірної випадкової величини, заданої функцією розподілу
x 1 y 0, 0, x 1 y , 1 x 6, 0 y 3, 15 x 1 F x, y , 1 x 6, y 3, 5 y x 6, 0 y 3, 3 , x 6, y 3. 1, Щільність розподілу неперервної випадкової величини має такі властивості: 1. Щільність розподілу завжди невід’ємна f x, y 0 . 2. Функція розподілу неперервної випадкової величини X , Y визначається через щільність її розподілу за формулою
35
y
x
F x, y d
f , d
f x, y dxdy 1 .
3. Має місце умова нормування
4. Імовірність попадання значень неперервної випадкової величини в задану область D обчислюється за формулою
P X , Y D f , d d . D
5. Функції
f1 x
f x, y dy і f y f x, y dx 2
задають щільності розподілів одновимірних неперервних випадкових величин X і Y відповідно. Умовні закони розподілу Умовним розподілом випадкової величини X, коли Y y j (Y, коли X xi ) називають розподіл ймовірностей її значень при відповідному значенні іншої змінної. Якщо розподіл дискретної двовимірної випадкової величини X , Y задано таблицею X x1 x2 … хі … хn Y у1 p11 p21 … pi1 … pn1 … … … … … … … , уj p1j p2j … pij … pnj … … … … … … … уm p1m p2m … pim … pnm то умовний розподіл випадкової величини X, коли Y y j визначають таблицею Х x1 x2 … хі … хn p1 j
р
p2 j n
n
p
ij
i 1
pij
p
ij
i 1
…
pnj
n
p
…
ij
i 1
а умовний розподіл Y, коли X xi , — таблицею Y y1 y2 … yj …
36
,
n
p
ij
i 1
ym
pi1
р
m
pij
…
pij
j 1
pim
pij
pi 2
m
j 1
m
pij
…
m
.
pij j 1
j 1
Умовний закон розподілу неперервної випадкової величини Х, коли
Y y0 визначається щільністю
x | y0
f x, y0 , f 2 y0
де f x, y — двовимірна щільність розподілу вектора X , Y , а f 2 y — щільність розподілу випадкової величини Y. Аналогічно, умовний закон розподілу неперервної випадкової величини Y, коли X x0 визначається щільністю
y | x0
f x0 , y , f 1 x0
де f1 x — щільність розподілу випадкової величини X. Якщо умовний закон розподілу однієї з величин випадкового вектора однаковий при всіх значеннях іншої величини, то ці випадкові величини стохастично незалежні. У цьому випадку функції їх розподілів задовольняють співвідношення:
F x | y F1 x , F y | x F2 y ,
F x, y F1 x F2 y .
Коваріація і коефіцієнт кореляції Коваріацією (або кореляційним моментом) двовимірної випадкової величини X , Y називають математичне сподівання добутку відхилень кожної з компонент від свого математичного сподівання
COV X , Y M X MX Y MY . Зокрема для дискретного випадкового вектора n
m
COV X , Y xi MX y j MY pij i 1 j 1
або
37
n
m
COV X , Y xi y j pij MX MY , i 1 j 1
а для неперервного
COV X , Y
x MX y MY f x, y dxdy
або
COV X , Y
xyf x, y dxdy MX MY .
Оскільки математичне сподівання добутку двох незалежних випадкових величин дорівнює добутку їх математичних сподівань, то коваріація вектора з незалежними компонентами дорівнює нулю. Отже, якщо коваріація випадкового вектора відмінна від нуля, то його компоненти є стохастично залежними випадковими величинами (обернене твердження не справджується). Коваріацію можна розглядати як міру залежності випадкових величин, які є компонентами вектора, однак вона враховує не тільки рівень залежності величин, а й їх розсіювання навколо точки MX , MY на площині. Тому залежність між компонентами двовимірного випадкового вектора характеризують безрозмірною величиною
rXY
COV X , Y , XY
яку називають коефіцієнтом лінійної кореляції. Очевидно, що коефіцієнт лінійної кореляції незалежних випадкових величин дорівнює нулю. Дві випадкові величини називають некорельованими, якщо їх коефіцієнт лінійної кореляції дорівнює нулю і корельованими у протилежному випадку. Незалежні випадкові величини завжди некорельовані. Обернене твердження не справджується. Однак для нормально розподілених випадкових величин некорельованість рівнозначна стохастичній незалежності. Покажемо, що 38
rXY 1 . Оскільки дисперсія випадкової величини Z Y X X Y невід’ємна, то
0 DZ M Y X X Y M Y X X Y M Y2 X 2 2 X Y XY X2 Y 2 2
2
Y MX X MY Y2 M X 2 2 X Y M XY X2 M Y 2 Y2 MX 2 2
2 X Y MXMY X2 MY 2 Y2 DX 2 X Y COV X , Y X2 DY 2 X2 Y2 2 X Y COV X , Y . Тому
COV X , Y X Y . Аналогічно доводять, що
COV X , Y X Y , розглянувши випадкову величину T Y X X Y , і тому
COV X , Y X Y , що й треба було довести. На відміну від коваріації, коефіцієнт лінійної кореляції не залежить від ступеня розсіювання випадкових величин і характеризує лише міру їх залежності. Зокрема, якщо rXY 1 , то величини X і Y — лінійно залежні. Наведемо приклад знаходження в пакеті Maple коефіцієнта лінійної кореляції двовимірної випадкової величини. Приклад 14. Знайти коефіцієнт лінійної кореляції компонент вектора, заданого щільністю
f x, y
14 3 16 x 2 28 xy 49 y 2 e .
Розв’язання: Задаємо щільність розподілу випадкового вектора (X,Y): > restart:f:=(x,y)->14/Pi*sqrt(3)*exp(-16*x^2-28*x*y-49*y^2); f := ( x, y )
14 3 e
( 16 x 2 28 x y 49 y 2 )
Знаходимо щiльності розподілів випадкових величин Х і Y: > f1:=x->int(f(x,y),y=-infinity..infinity);f1(x);
39
f1 := x f( x, y ) dy 2e
( 12 x 2 )
3
> f2:=y->int(f(x,y),x=-infinity..infinity);f2(y);
f2 := y f( x, y ) dx 7 e 2
147 y 2 4
3
Обчислюємо математичні сподівання, дисперсії та середньоквадратичні їх відхилення: > m1:=int(x*f1(x),x=-infinity..infinity);D1:=int(x^2*f1(x),x=infinity..infinity)-m1^2;sigma1:=sqrt(D1); m1 := 0 D1 :=
1 24
:=
6 12
> m2:=int(y*f2(y),y=-infinity..infinity);D2:=int(y^2*f2(y),y=infinity..infinity)-m2^2;sigma2:=sqrt(D2); m2 := 0 D2 :=
2 147
:=
6 21
Обчислюємо коваріацію випадкового вектора: > COV(X,Y):=int(int(x*y*f(x,y),x=-infinity..infinity),y=infinity..infinity)-m1*m2; -1 COV( X, Y ) := 84 та коефіцієнт лінійної кореляції: > r(X,Y):=COV(X,Y)/sigma1/sigma2; r( X, Y ) :=
-1 2
Як бачимо, коефіцієнт лінійної кореляції дорівнює 1 2 .
40
Коваріаційна матриця і матриця парних кореляцій Коваріаційною матрицею п-вимірного випадкового вектора X X 1 , X 2 ,...
..., X n називатимемо квадратну матрицю У COV X i , X j розмірності п, елементами якої є парні коваріації компонент випадкового вектора Х. Коваріаційна матриця є симетричною (оскільки COV X i , X j COV X j , X i ), а елементами головної діагоналі є дисперсії відповідних компонент випадкового вектора. Дійсно COV X i , X i M X i MX i X i MX i M X i MX i DX i . 2
У попередньому прикладі коваріаційна матриця має вигляд
1 У 24 1 84
1 84 . 2 147
Оскільки коваріація двох незалежних компонент вектора дорівнює нулю, то коваріаційна матриця відображає структуру залежності компонент випадкового вектора Х. Зокрема, якщо всі компоненти випадкового вектора стохастично незалежні, то коваріаційна матриця діагональна. Матрицю R rij , складену з коефіцієнтів лінійної кореляції компонент
X i та X j випадкового вектора Х, називають матрицею парних кореляцій або кореляційною матрицею. Як і коваріаційна матриця, вона є симетричною. Діагональні елементи кореляційної матриці дорівнюють 1. Кореляційна матриця випадкового вектора з незалежними компонентами є одиничною. У попередньому прикладі матриця парних кореляцій має вигляд
1 R 1 2
1 2 . 1
Коваріаційна матриця пов’язана з матрицею парних кореляцій співвідношенням
У SRS , 41
де S — діагональна матриця, елементами головної діагоналі якої є середні квадратичні відхилення відповідних компонент випадкового вектора. Зокрема, якщо компоненти вектора мають одиничні дисперсії, то R і У збігаються. Вправа. Переконайтесь в істинності останнього співвідношення для наведених коваріаційної і кореляційної матриць.
Граничні закони теорії ймовірностей Нерівність Чебишева Якщо випадкова величина має математичне сподівання М і середнє квадратичне відхилення σ, тоді для довільного d має місце нерівність
2 (ІІ.31) d2 Нерівність (ІІ.31) називають нерівністю Чебишева. Вона дозволяє оцінити P| X M | d
імовірність великого відхилення значення випадкової величини від свого математичного сподівання. Разом з нею розглядають нерівність
2 P| X M | d 1 2 , d яка дозволяє оцінити ймовірність протилежної події.
(ІІ.32)
Доведемо нерівність (ІІ.31). Дійсно, для дискретно розподіленої випадкової величини маємо
2 ( xi M ) 2 p i i
( xi M ) 2 pi ( xi M ) 2 p i i , xi M d
i , xi M d
( xi M ) 2 p i
i , xi M d
2 d pi d pi d P| x M | d . Звідки P| X M | d d 2 . i , xi M d i , xi M d Для неперервно розподіленої випадкової величини маємо 2
2
2
M d
2
M d
2
( x M ) f ( x)dx ( x M ) f ( x )dx ( x M ) f ( x)dx ( x M ) 2 f ( x)dx
2
M d
M d
2
M d
M d
( x M ) 2 f ( x )dx ( x M ) 2 f ( x)dx d 2 f ( x)dx f ( x )dx M d M d 2 d 2 P| x M | d . Звідки P| X M | d 2 , що і треба було довести. d Зауважимо, що нерівність Чебишева не передбачає інформації про характер розподілу випадкової величини. Якщо ж відомий розподіл випадкової вели42
чини, то можна не тільки оцінити, але й визначити імовірність відхилення випадкової величини від свого математичного сподівання більше, ніж на задану величину. Теорема Чебишева Нехай випадкові величини X i — попарно незалежні і мають однакові математичні сподівання М і однакові обмежені дисперсії 2 . Тоді для усередненої випадкової величини X
1 n X i і для як завгодно малого справджується n i 1
рівність
lim P X M 1 . n
Дійсно випадкова величина X
(ІІ.33)
1 n X i має математичне сподівання М і n i 1
2 дисперсію . Застосувавши до X нерівність (ІІ.32) отримуємо n 2 1 P X M 1 2 . (ІІ.34) n Переходячи в останній нерівності до границі при n , дістаємо (ІІ.33).
Зауважимо, що теорема Чебишева може бути поширена на випадкові величини з довільними математичними сподіваннями і довільними обмеженими в сукупності дисперсіями. Суть теореми Чебишева полягає в тому, що хоча окремі випадкові величини можуть набувати далеких від свого математичного сподівання значень, однак для достатньо великого їх числа усереднена випадкова величина практично не відхиляється від свого математичного сподівання. Теорема Чебишева має важливе практичне значення. При вимірюванні деякої величини результати вимірювань можна розглядати як випадкові величини X 1 , X 2 , X 3 ,, X n . Всі вони попарно незалежні, мають однакове математичне сподівання і обмежені дисперсії, і якщо їх досить багато, то на підставі тео-
43
реми Чебишева можна стверджувати, що середнє арифметичне цих вимірювань практично не відрізняється від істинного значення вимірюваної величини. З іншого боку на теоремі Чебишева ґрунтується вибірковий метод досліджень. Для визначення характеристик великої сукупності досліджуваних об'єктів нема потреби досліджувати кожен з них. Достатньо вивчити порівняно невелику випадкову вибірку з цієї сукупності. Закон Бернуллі Розглянемо величини X 1 , X 2 , X 3 ,, X n , кожна з яких має розподіл Бернулі з параметром р. Кожну величину X і можемо трактувати як появу ( X і 1 ) або непояву ( X і 0 ) деякої події А в і-му випробуванні, тоді величина
X
1 n X i буде відносною частотою появи події А в серії з п випробувань. n i 1
Оскільки MX i p , то і MX p Застосовуючи теорему Чебишева, отримуємо
lim P n
n
Xi i 1
n
р 1.
(ІІ.35)
Нерівність (ІІ.35) виражає закон Бернуллі або закон великих чисел, який стверджує, що імовірність того, що відносна частота появи події в серії з достатньо великою кількістю випробувань як завгодно мало відрізняється від імовірності появи цієї події, є близькою до одиниці. Закон Бернуллі дає підстави для статистичного означення імовірності: Імовірністю події називається границя відносної частоти появи події в серії випробувань, коли кількість випробувань прямує до нескінченості. Теорема Ляпунова Якщо Х 1 , Х 2 ,, Х п , — незалежні випадкові величини, що мають однаковий закон розподілу зі скінченими математичним сподіванням і дисперсією,
44
то випадкова величина Х Х 1 Х 2 Х п має розподіл, який наближається до нормального коли п прямує до нескінченості. Теорема Ляпунова дає підстави стверджувати, що усереднений результат достатньо великого числа вимірювань має розподіл, близький до нормального.
Задачі до розділу ІІ. ІІ.1. Монету кидають двічі. Знайти розподіл випадкової величини, якою є кількість випадань герба. ІІ.2. Знайти розподіл випадкової величини, яка дорівнює кількості очок, що випадають при киданні двох гральних кубиків. Знайти функцію розподілу цієї випадкової величини. ІІ.3. Знайти математичне сподівання, дисперсію та середнє квадратичне відхилення випадкових величин, описаних у задачах ІІ.1, ІІ.2. ІІ.4. Розподіл випадкової величини задано таблицею: хі 3 5 8 13 21 34 рі 0,05 0,15 0,2 0,24 0,17 Заповнити таблицю та знайти математичне сподівання, дисперсію та середнє квадратичне відхилення випадкової величини. ІІ.5. Розподіл двовимірної випадкової величини (Х, Y ) задано таблицею: Y X
1
2
3 0,05 0,15 5 0,08 0,24 6 0,13 0,35 Побудувати розподіли випадкових величин X, Y, X+Y, XY, X/Y та знайти їх числові характеристики. ІІ.6. Розподіл випадкової величини, яка може набувати цілих значень від 1 до 10, задано рівністю P ( X k )
a . Визначити значення параметра а та 2k 1
записати функцію розподілу цієї випадкової величини. Обчислити P (2 x 5) ,
P (2 x 5) , P (2 x 5) , P (2 x 5) . Знайти математичне сподівання, дисперсію та стандартне відхилення випадкової величини. 45
ІІ.7. Довести, що математичне сподівання випадкової величини міститься між її найбільшим і найменшим значенням. ІІ.8. Кидають три гральних кубики. Знайти математичне сподівання суми очок, що при цьому випадають. ІІ.9. Імовірність народження дівчинки у сім’ї дорівнює 0,48. Побудувати розподіл числа дівчаток у сім’ї, що має чотирьох дітей. ІІ.10. Підручник видано тиражем 50 000 екземплярів. Імовірність браку під час брошурування становить 0,0001. Знайти ймовірність, що тираж містить: а) 3 бракованих книжки; б) менше, ніж три бракованих книжки; в) більше, ніж три бракованих книжки. Вказівка: Використайте розподіл Пуассона.
ІІ.11.
Функція
розподілу
випадкової
величини
має
вигляд
F ( x) а arctg ax b . Визначити параметри а і b. Яка ймовірність, що значення випадкової величини потраплять у проміжок [0; 1]? Що можна сказати про математичне сподівання та дисперсію цієї випадкової величини? Знайти її медіану. ІІ.12. Знайти щільність розподілу випадкової величини, якщо її функція розподілу має вигляд:
0, x 0 0, x 0 а) F ( x) x 3 , 0 x 1 ; б) F ( x) sin x, 0 x / 2 . 1, x / 2 1, x 1 ІІ.13. Знайти функцію розподілу випадкової величини, якщо щільність її розподілу має вигляд:
0, x 0 б) f ( x ) sin x, 0 x / 2 0, x / 2 ІІ.14. Для заданого розподілу випадкової величини обчислити її матема0, x 1 а) f ( x) x 1 / 2, 1 x 2 ; 0, x 2
тичне сподівання, дисперсію та середнє квадратичне відхилення:
46
0, x 0 2 x2 , x 1 . а) F x ; б) F x e 2x 1 e , x 0 1, x 1 ІІ.15. Використовуючи Maple, знайти густину розподілу, математичне сподівання, дисперсію та середньоквадратичне відхилення випадкової величини, заданої функцією розподілу
x2 x 2 1 ln 2 2arctg x 2 1 2arctg x 2 1 2 x x 2 1 F ( x) 4 ІІ.16. Випадкова величина має нормальний розподіл з математичним спо-
діванням МХ = 12. Яка ймовірність попадання значень випадкової величини у проміжок (15; 20], якщо ймовірність попадання її значень у проміжок (4; 9) дорівнює 0,214. ( x2 )2
1 ІІ.17. Випадкова величина розподілена за законом p ( x ) e 50 . 5 2 а) Знайти імовірність попадання випадкової величини в проміжок [1; 5].
б) Вказати проміжок, в який попадуть практично всі значення випадкової величини. в) Вказати симетричний відносно МХ проміжок, імовірність попадання в який випадкової величини дорівнює 0,88. ІІ.18. Випадкова величина розподілена за законом p( x)
1 32
e
( x 12 ) 2 32
.
Знайти імовірність попадання випадкової величини в проміжок [11; 15]. Вказати проміжок, в який попадуть практично всі значення випадкової величини. Вказати симетричний відносно МХ проміжок, імовірність попадання в який випадкової величини дорівнює 0,58. ІІ.19. Випадкова величина має нормальний розподіл з математичним сподіванням МХ = 15. Яка ймовірність попадання значень випадкової величини у проміжок (4; 9), якщо ймовірність попадання її значень у проміжок (15; 20] дорівнює 0,254.
47
ІІ.20. Випадкова величина має нормальний розподіл з математичним сподіванням МХ = 9. Яка ймовірність попадання значень випадкової величини у проміжок (15; 20], якщо ймовірність попадання її значень у проміжок (4; 9) дорівнює 0,254. ІІ.21. Імовірність появи події в експерименті дорівнює 0,1. Яка ймовірність, що в серії з 1050 експериментів подія відбудеться 60 раз? Яка ймовірність, що в серії з 1050 експериментів подія відбудеться від 70 до 130 раз? ІІ.22. Імовірність браку при виготовленні деталі дорівнює 0,01. а) Яка ймовірність, що в партії з 15000 деталей є 60 бракованих? б) Яка ймовірність, що в партії з 15000 деталей є від 700 до 1300 бракованих? ІІ.23. Виведіть формулу для наближеного обчислення ймовірності відхилення відносної частоти появи події у великій серії експериментів від її ймовірності не більше, ніж на ε, якщо ймовірність появи події в кожному експерименті дорівнює р. ІІ.24. За даними задачі ІІ.5 записати: а) функцію розподілу випадкового вектора X , Y ; б) розподіл випадкової величини Х; в) розподіл випадкової величини Y. II.25. За даними задачі ІІ.5 знайти: а) умовний розподіл випадкової величини Х, коли Y 2 ; б) умовний розподіл випадкової величини Y, коли X 2 . ІІ.26. Знайти щільність розподілу двовимірного випадкового вектора
X , Y , якщо його функція розподілу F x, y 1 arctg 2 x 1 1 arctg 5 y 1 .
2
2
ІІ.27. Знайти щільність і функцію розподілу випадкового вектора X , Y , значення якого рівномірно розподілені у прямокутнику 0; 2 2;2 .
48
ІІ.28. Щільність розподілу випадкового вектора X , Y задано рівністю
f x, y
a . Визначити значення параметра а. Знайти функцію 9 x 4 25 y 2 2
розподілу цього вектора. ІІ.29. Щільність розподілу випадкового вектора X , Y задано рівністю: а) f x, y
15 3 9 x 2 15 xy 25 y 2 e ; 2 в) f x, y
б) f x, y
15 3 9 x 2 15 xy 25 y 2 e ; 2
15 9 x 2 25 y 2 e .
Знайти закони розподілів f1 ( x ), f 2 ( y ) та умовні закони розподілів x | y та y | x . ІІ.30. Знайти коваріацію та коефіцієнт лінійної кореляції випадкового вектора X , Y із задачі ІІ.5. Що можна сказати про залежність його компонент? ІІ.31. Знайти коваріацію та коефіцієнт лінійної кореляції випадкових векторів X , Y із задачі ІІ.29. Що можна сказати про залежність їхніх компонент? ІІ.32. Матриця парних кореляцій випадкового вектора має вигляд
0,5 0,1 1 1 0,2 , 0,5 0,1 0.2 1 а дисперсії його компонент відповідно дорівнюють 2,89, 5,76 та 3,24. Знайти його коваріаційну матрицю. ІІ.33. Відомо, що P X MX 0,9 , а DX 0,009 . Оцінити знизу значення . ІІ.34. Імовірність появи події в кожному з 500 випробувань дорівнює 0,8. Яка ймовірність, що відносна частота появи події в цій серії відрізнятиметься від її ймовірності не більше, ніж на 0,05. ІІ.35. Використовуючи нерівність Чебишева оцініть імовірність того, що випадкова величина відхилиться від свого математичного сподівання більше, ніж: а) на 2σ, б) на 3σ. 49
Порівняйте отримані результати з аналогічними для нормально розподіленої випадкової величини (стор.30). ІІ.36. Оцінити ймовірність, що кількість осіб, яким притаманна певна властивість, серед 800 осіб відхилиться від свого математичного сподівання більше, ніж на 30 осіб.
50
ІІІ. Елементи математичної статистики Сучасна математична статистика — це наука про прийняття рішень в умовах невизначеності. Завдання математичної статистики — це, по-перше, вказати способи збору і групування даних, отриманих в результаті спостережень або спеціально спланованих експериментів, а, по-друге, розробити методи аналізу статистичних даних залежно від мети досліджень. Виявлення закономірностей, яким підпорядковуються масові випадкові явища ґрунтується на вивченні статистичних даних методами теорії ймовірностей.
Генеральна сукупність і вибірка Сукупність однорідних об’єктів, які піддаються статистичному аналізу називають генеральною сукупністю. Кількість об’єктів у генеральній сукупності називають об’ємом генеральної сукупності. У процесі статистичних спостережень вивчаються ознаки (одна або кілька), притаманні об’єктам цієї сукупності. Ознаки можуть бути кількісними або якісними. Розрізняють два види статистичних спостережень — суцільне і вибіркове. При суцільному спостереженні досліджується кожен об’єкт генеральної сукупності. Однак практично такий вид досліджень використовується досить рідко. При вибірковому спостереженні з генеральної сукупності формується вибіркова сукупність (або вибірка) — обмежена множина випадково відібраних з генеральної сукупності об’єктів, для якої проводяться статистичні дослідження. Результати досліджень вибірки переносяться на генеральну сукупність. Очевидно, що для того, щоб правильно оцінювати досліджувану ознаку генеральної сукупності за вибіркою, вибірка повинна достатньо точно представляти генеральну сукупність. Кажуть, що вибірка є репрезентативною, якщо кожен елемент генеральної сукупності має однакову ймовірність потрапити до цієї вибірки.
51
Дискретний варіаційний ряд Нехай з генеральної сукупності зроблена вибірка, причому значення x1 досліджуваної ознаки зустрічалось n1 раз, x 2 — n2 раз, x k — nk раз. Число k
n ni є об’ємом вибірки. Величини xі називають варіантами, а записану у i 1
порядку зростання їх послідовність — варіаційним рядом. Числа ni називають частотами варіант xi , а i
ni — відносними їх частотами. n
Статистичним розподілом вибірки називають перелік варіант і їх відносних частот.
Ламану з вершинами в точках xi , i i 1, k називають полігоном відносних частот. Позначимо через n x кількість спостережень, при яких значення спостережуваної ознаки було меншим, ніж х. Величину n xi називають нагромадженою (або кумулятивною) частотою варіанти xi . Функцію
F * ( x)
nx n
(ІІІ.1)
називають емпіричною функцією розподілу (або функцією розподілу за вибіркою) ознаки. Функцію розподілу генеральної сукупності називають теоретичною функцією розподілу. Відмінність між емпіричною і теоретичною функціями розподілу полягає в тому, що теоретична функція розподілу F(x) визначає імовірність події Х < x, а F*(x) — її відносну частоту. Однак на підставі закону Бернуллі можемо стверджувати, при великих п функція F*(x) практично мало відрізняється від F(x). Це дає нам змогу знаходити наближені значення числових характеристик розподілу випадкової величини (медіани, квантилей, математичного сподівання, стандартного відхилення та ін.), використовуючи емпіричну функцію розподілу. 52
Приклад 15. При опитуванні групи учнів за тестом Кеттела були отримані такі значення фактора О : 3, 6, 5, 1, 3, 2, 1, 1, 3, 2, 4, 3, 3, 7, 7, 9, 5, 6, 7, 6, 8, 7, 6, 4, 3, 1, 8, 8, 7, 4, 6, 1, 6, 1, 5, 5, 1, 3, 1, 7. Знайти статистичний розподіл вибірки, емпіричну функцію розподілу, побудувати полігон відносних частот, та графік емпіричної функції розподілу. Визначити медіану та квартилі емпіричного розподілу. Розв’язання: Об’єм вибірки дорівнює 40. Статистичний розподіл вибірки має вигляд: 2 3 4 5 6 7 8 9 xi 1 i 1/5 1/20 7/40 3/40 1/10 3/20 3/20 3/40 1/40 Емпірична функція розподілу задається таблицею: х x≤1 1<x≤2 2<x≤3 3<x≤4 4<x≤5 5<x≤6 6<x≤7 7<x≤8 8<x≤9 x>9 0,2 0,25 0,425 0,5 0,6 0,75 0,9 0,975 1 F(x) 0 Полігон відносних частот та графік емпіричної функції розподілу наведені на рис. 11. 0,3
1 0,75
0,2
0,5 0,1
0,25 0
0 0
1
2
3
4
5
6
7
8
9
-1
10
0
1
2
3
4
5
6
7
8
9
10
Рис. 11 Оскільки для даного розподілу квартилі за емпіричною функцією розподілу визначаються неоднозначно, то в якості значень квартилей вибираємо середини відповідних інтервалів. Тому 1 2 4,5 , 1 4 2,5 ,
1 2 6,5 .
Інтервальний варіаційний ряд Якщо досліджувана ознака розподілена неперервно, то область зміни її значень розбивають на кілька однакових проміжків, які називають класами. Ширину класу визначають за формулою
x max x min , (ІІІ.2) k де k — кількість класів. Кількість класів та їх межі вибираються так, щоб межі x
класів були зручними для розрахунків. Оптимальною для вибірки об’ємом 80 – 150 елементів є кількість 8 – 12 класів.
53
Класи ( xi 1 ; xi ] разом з частотами пі попадання значень у кожен клас утворюють інтервальний варіаційний ряд. Гістограмою відносних частот називають функцію, яка на кожному ін п тервалі ( xi 1 ; xi ] набуває значення i , де і і — відносна частота попадання x п значень змінної в цей інтервал. Площа підграфіка цієї функції на кожному проміжку ( xi 1 ; xi ] дорівнює відносній частоті попадання значень досліджуваної ознаки у цей проміжок, а площа всього підграфіка функції дорівнює одиниці. Тому гістограма відносних частот є емпіричною щільністю розподілу f * ( x) x
ознаки. Для побудови емпіричної функції розподілу F * ( x)
f * ( x)dx
достат-
ньо сполучити відрізками точки з координатами xi , j (тут 0 0 , а j — j 0 відносна частота, що відповідає інтервалу ( x j 1 ; x j ] ). i
Приклад 16. Час (у секундах) затрачений кожним із 124 учнів VII класу на розв'язування задачі з фізики становить: 52 73 69 53 33,3 28 39 98 53,8
62 84 66 42 51,5 40 10 67 40,8
69 73 47 47 49,2 41 23 49 158
129 47 60 53 42,4 29 22 142 135
75 81 76 25 54,4 39 42 71
65 193 71 48 30 28 27 30
11 119 91 87 53,5 30 39 41
41 87 104 85 32,8 25 39 144
22 17,5 61 30,5 58 30 46 50
27 24 59 40 37 23 60 28
52 55 55 85 42 23 102 28
46 37 31 49,2 38 35 22 27
49 131 45 52 24 21 53 35
106 56 52 54,4 28 32 44,5 38
14,7 62 61 24,6 23 34 90 40,8
Побудувати інтервальний варіаційний ряд, гістограму відносних частот та емпіричну функцію розподілу даного часу. Знайти медіану та квартилі розподілу. Розв’язання: Об’єм вибірки дорівнює 124. Внісши дані в пакет MS Excel та використавши стандартні функції НАИБОЛЬШИЙ та НАИМЕНЬШИЙ визначаємо, що t min 10 , а t max 193 . Для зручності обчислень проміжок від 5 до 200 розіб’ємо на 15 інтервалів довжиною 13 кожен. Порахуємо частоти попадання значень випадкової величини Т в кожен з ін-
(18;31]
(31;44]
(44;57]
(57;70]
(70;83]
(83;96]
(96;109]
(109;122]
(122;135]
(135;148]
(148;161]
(161;174]
(174;187]
(187;200]
пі
(5;18]
тервалів (в Excel можна використати функцію СЧЁТЕСЛИ).
4
28
25
28
13
7
7
4
1
3
2
1
0
0
1
54
(174;187]
(187;200] 0,008
(161;174] 0,000
0,000
(148;161] 0,008
(135;148] 0,016
(122;135] 0,024
(109;122] 0,008
(96;109] 0,032
(83;96] 0,056
(70;83] 0,056
(57;70] 0,105
(44;57] 0,226
(31;44] 0,202
(18;31] 0,226
і
0,032
(5;18]
Інтервальний варіаційний ряд матиме вигляд:
Для побудови графіка емпіричної функції розподілу складаємо таблицю нагромаджених відносних частот
1
0,992
0,992
0,992
0,984
0,968
0,944
0,935
0,903
0,847
0,79
0,685
0,46
0,258
0,032
F * xi
5 18 31 44 57 70 83 96 109 122 135 148 161 174 187 200 0
xi
Гістограма відносних частот та емпірична функція розподілу зображені на рис. 12. 1,1 F* 1
f* 0,07
0,9 0,8 0,7 0,6
0,06 0,05 0,04
0,5 0,4
0,03
0,3
0,02
0,2 0,1 -21
0 -8
0,01
5
18
31
44
57
70
83
96
109 122 135 148 161 174 187 200 213
Рис. 12 Як видно з графіка, медіана 1 2 потрапляє на інтервал (44;57] . Оскільки ми вважаємо розподіл значень у середині кожного інтервалу рівномірним, то для знаходження медіани 1 2 44 57 44 скористаємось рівністю , звідки 1 2 46,31 . Аналогічно для знахо0,5 0,46 0,685 0,46 1 4 18 3 4 57 31 18 70 57 дження квартилей маємо , . Тоді 0,25 0,032 0,258 0,032 0,75 0,685 0,79 0,685 1 4 30,53 , а 3 4 65,04 .
Точкові та інтервальні оцінки Нехай генеральна сукупність має розподіл з деяким невідомим параметром ξ. Результати експериментів для визначення цього параметра будемо роз55
глядати як незалежні однаково розподілені випадкові величини Х 1 , Х 2 , , Х п . Будь-яку функцію результатів експериментів Х 1 , Х 2 ,, Х п будемо називати статистикою. Оцінкою статистичної характеристики ξ називається статистика, експериментальна реалізація якої приймається за невідоме значення величини ξ. Зрозуміло, що не кожна статистика може служити такою оцінкою. Оскільки результати експерименту мають випадковий характер, то будь-яка статистика є випадковою величиною. Для того, щоб статистика могла виступати оцінкою ξ, потрібно, щоб її розподіл був зосереджений достатньо близько до невідомого значення ξ. Тоді при багаторазовому застосуванні такої статистики її середнє значення буде досить доброю оцінкою значення ξ. Оцінка Х 1 , Х 2 ,, Х п буде придатною оцінкою параметра ξ, якщо
0 lim P Х 1 , Х 2 , , Х п 1 . n
Оцінка Х 1 , Х 2 ,, Х п буде незміщеною оцінкою параметра ξ, якщо
M Х 1 , Х 2 , , Х п 0 . Оцінка Х 1 , Х 2 ,, Х п буде ефективною оцінкою параметра ξ, якщо вона має найменшу дисперсію серед усіх статистик від Х 1 , Х 2 , , Х п . Практичну цінність мають незміщені, придатні і ефективні оцінки. Як випливає із закону Бернуллі, незміщеною, придатною точковою оцінкою імовірності події є відносна частота появи цієї події. Незміщеною, придатною точковою оцінкою математичного сподівання генеральної сукупності за вибіркою є вибіркове середнє — середнє арифметичне елементів вибірки
1 k ni xi для згрупованої вибірки) (ІІІ.3) n i 1 1 n 1 k 2 2 Вибіркова дисперсія Dв xi x (або Dв ni xi x для згруn i 1 n i 1 x
1 n xi n i 1
(або x
пованої вибірки) має математичне сподівання MDв
56
n 1 D , яке не дорівнює n
дисперсії генеральної сукупності, і тому є зміщеною оцінкою дисперсії генеральної сукупності. Незміщеною оцінкою дисперсії генеральної сукупності виступає величина
1 k 2 2 або s ni xi x (ІІІ.3) n 1 i 1 є зміщеною оцінкою середнього квадратичного
1 n xi x 2 s n 1 i 1 2
Однак величина s s 2
відхилення генеральної сукупності. Приклад 17. За даними прикладу 16 знайти точкові оцінки математичного сподівання дисперсії та середнього квадратичного відхилення генеральної сукупності. Розв’язання: В табличному процесорі Excel ведемо дані в один стовпчик. Вони заповнять блок А1:А124. Помістивши курсор у чарунку А125 та викликавши функцію =СРЗНАЧ(А1:А124) з групи статистичних функцій, отримаємо в цій чарунці вибіркове середнє x 53,8 , яке є незміщеною оцінкою математичного сподівання генеральної сукупності. Викликавши функцію =СТАНДОТКЛ(А1:А124), отримаємо величину s 31,9 , яка є оцінкою стандартного відхилення генеральної сукупності. Незміщена оцінка дисперсії генеральної сукупності s 2 1017,61 .
Для невеликих за об’ємом вибірок відхилення точкової оцінки параметра від його істинного значення може бути істотним. Тому поряд з точковими оцінками параметрів розподілу генеральної сукупності використовують їх інтервальні оцінки. Випадковий інтервал, який визначається лише результатами експериментів, не залежить від невідомих характеристик і з заданою ймовірністю α покриває невідому статистичну характеристику ξ, називається вірогідним інтервалом з коефіцієнтом довіри (надійністю) α для цієї характеристики. Величина 1– α називається рівнем значимості відхилення оцінки. При великій кількості п ( п 100 ) експериментів за схемою Бернуллі випадкова величина Х пр
npq , де Х — число появ події в серії з п експери-
ментів має розподіл, близький до стандартного нормального. Тому вірогідним інтервалом з надійністю невідомої ймовірності р є інтервал
57
t
1 1 p t , n n
(ІІІ.4)
m — відносна частота появи події, а t — розв’язок рівняння (t ) 2 n (в Excel знаходять як значення функції НОРМСТОБР в точці 2 0,5 ). Вірогідним інтервалом математичного сподівання т (з надійністю ) при де
відомій дисперсії 2 є інтервал
t t , (ІІІ.5) mx n n де x — вибіркове середнє, п — об’єм вибірки, а t — розв’язок рівняння t (t ) 2 . Величину можна обчислити як значення функції ДОВЕРИТ(1– n α; σ; п) в Excel. Вірогідним інтервалом математичного сподівання т (з надійністю ) при x
невідомій дисперсії є інтервал
x
t n1, s
m x
t n1, s
, (ІІІ.6) n n де п — об’єм вибірки, x — вибіркове середнє, s — незміщена оцінка стандартного відхилення, t n 1, — квантиль порядку1 2 розподілу Стьюдента з п–1 ступенем вільності (в Excel знаходять як значення функції СТЬЮДРАСПОБР з аргументами та п–1). Вірогідним інтервалом стандартного відхилення σ (з надійністю ) нормально розподіленої ознаки є інтервал
max 0, s (1 q ) s (1 q ) ,
(ІІІ.7)
де s — незміщена оцінка стандартного відхилення вибірки об’ємом п, а q — b
розв’язок рівняння
f n1 ( x)dx . Тут n 1
f n1 x — щільність розподілу 2 з п–1
(1 q ) 2
n 1 , якщо q 1 , інакше — b (в Excel q знахо1 q 2 дять як значення виразу КОРЕНЬ((n–1)/ХИ2ОБР(α; n–1)) –1 ). степенем вільності, b
58
Поняття про статистичну перевірку гіпотез Задачі знаходження вірогідних областей для параметрів розподілів споріднені до задач перевірки статистичних гіпотез. Статистичною гіпотезою будемо називати припущення про вид або параметри розподілу деякої ознаки генеральної сукупності. Розрізняють два види статистичних гіпотез про параметри розподілу. Гіпотези першого типу стверджують, що невідомий параметр набуває певного значення (або належить деякому проміжку значень). Гіпотеза другого типу полягає в тому, що невідомі параметри у двох (або кількох) незалежних вибірках мають однакові значення. Останнє практично означає, що серії експериментів, у яких отримані ці вибірки, здійснювались в однакових умовах. Статистична перевірка гіпотези полягає в тому, щоб на основі проведених спостережень підтвердити або відхилити цю гіпотезу. Тому поряд із даною статистичною гіпотезою, яку, як правило, називають нульовою (оскільки в більшості випадків вона стверджує, що відхилення значення досліджуваного параметра від заданого числа дорівнює нулю), розглядають альтернативну гіпотезу, котра є запереченням даної. Далі будується процедура перевірки гіпотези (критерій згоди) — правило, яке дозволяє за даними спостережень приймати гіпотезу або відхиляти її (тобто приймати альтернативну гіпотезу). Для цього вибирають статистичний критерій — випадкову величину, яка є статистикою вибірки. Розрізняють параметричні і непараметричні критерії. Якщо статистичний критерій залежить від параметрів розподілу досліджуваної величини, то його називають параметричним. Непараметричні критерії не залежать від параметрів розподілу досліджуваної величини Вважається, що розподіл критерію відомий. Множину X 0 значень критерію, які не суперечать нульовій гіпотезі називають областю допустимих значень, а множину X 1 решти значень — критичною областю. Точки, які відділяють область допустимих значень від критичної області називають критичними точками. Розрізняють лівосторонню
59
(рис. 14 а), правосторонню (рис. 14 б) та двосторонню (рис. 14 в) критичні області. Оскільки подія x X 1 випадкова, то гіпотеза відхиляється або приймається внаслідок спостереження випадкової події. А це означає, що при прийнятті рішення дослідник може допустити похибку. Помилку, яка полягає у відхиленні нульової гіпотези (прийнятті альтернативної гіпотези), коли вона правильна, називають помилкою першого роду, а помилку, яка полягає у прийнятті нульової гіпотези, коли вона хибна, — помилкою другого роду. Ймовірність а)
б)
в) хкр
хкр
х1кр
х2кр
Рис. 14
похибки першого роду називають рівнем значущості критерію, а ймовірність похибки другого роду — його оперативною характеристикою. Величину 1 – називають надійністю критерію, а величину 1 – — його потужністю. При побудові процедур перевірки гіпотез бажано добиватись мінімального рівня обох помилок, однак зниження рівня однієї з них приводять до збільшення рівня іншої. Розглянемо такий приклад. Приклад 18. Випадкова величина Х має нормальний розподіл, дисперсія якого дорівнює 4. Висувається нульова гіпотеза Н0 : МХ =1, та альтернативна гіпотеза Н1 : МХ =–1. Для перевірки гіпотези Н0 проводять серію з п = 5 випробувань і визначають середнє значення х . При рівні значущості 0,05 і двосторонній критичній області знайти оперативну характеристику критерію. Обчислити її при 0,01 . Як зміниться оперативна характеристика, якщо серія складатиметься з десяти випробувань? Розв’язання: Випадкова величина Х матиме те ж математичне сподівання, що й Х і стандартне відхилення Х
Х п
2 5
0,894 . Критичні значення х1 та х2 критерію знаходи-
мо як квантилі нормального розподілу з математичним сподіванням 1 і дисперсією 0,894 рівнів 2 та 1 2 . Тоді х1 0,752 , а х 2 2,752 . (В Excel можуть бути знайдені як НОРМОБР(0,025;1;0,894) та НОРМОБР(0,975;1;0,894)). Тоді F 1; 0.894 ( x 2 ) F 1; 0.894 ( x 2 ) 0,39 .
Якщо 0,01 , то х1 1,303 , х 2 3,303 , 0,63 .
60
Якщо серія випробувань складатиметься з десяти, то Х
Х
2
0,632 і для п 10 0,05 маємо х1 0,239 , х 2 2,239 і 0,197 . Якщо ж 0,01 , то х1 0,628 , х 2 2,628 і 0,339 . Графіки відповідних щільностей розподілів та області для 0,05 наведено на рис. 15. п=5, α = 0,05
п =10, α = 0,05
0,8 0,7
0,8 0,7
0,6
0,6
0,5
0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,1
0 -3
-2,5
-2
-1,5
-1
х1
-0,5
0 0
0,5
1
1,5
2
2,5
х2
3 -3
-2,5
-2
-1,5
-1
-0,5
х1 0
0,5
1
1,5
2
х2
2,5
3
Рис. 15
Як бачимо з прикладу, зниження рівня похибки першого роду призводить до підвищення рівня похибки другого роду. Знизити одночасно рівень похибок першого і другого роду можна, збільшивши об’єм вибірки.
Задачі до розділу ІІІ. ІІІ.1. За одним із субтестів батареї Векслера на вибірці із ста досліджуваних отримані такі суми балів: 15 20 14 13 10 9 24 17 11 16 12 15 16 5 15 15 7 9 25 23 20 16 14 17 21 15 10 19 22 25 18 16 10 20 24 11 15 15 17 15 10 11 22 22 22 19 17 20 14 11 14 12 24 16 9 23 13 11 18 17 18 23 22 19 23 26 19 14 22 19 17 21 21 18 16 20 21 15 23 16 15 24 18 14 18 12 20 16 15 20 22 23 16 15 14 5 20 22 20 22 За цією вибіркою побудувати дискретний варіаційний ряд, полігон частот та графік емпіричної функції розподілу. Знайти медіану та квартилі цього ряду. ІІІ.2. За опитувальником Кеттела (фактор О) на вибірці із 52 чоловік отримані такі значення стенів: 6 4
7 7
4 6
4 4
4 5
5 5
4 4
4 4
6 4
3 6
5 3
4 2
4 3 61
4 6
4 4
4 2
4 4
3 5
6 3
4 4
7 6
5 3
4 4
7 5
4 6
5 4
За цією вибіркою побудувати дискретний варіаційний ряд, полігон частот та графік емпіричної функції розподілу. Знайти медіану та квартилі цього ряду. ІІІ.3. Знайти точкові оцінки математичного сподівання, дисперсії та середнього квадратичного відхилення випадкових величин у вправах ІІІ.1, ІІІ.2. ІІІ.4. Знайти вірогідний інтервал для математичного сподівання випадкових величин у вправах ІІІ.1, ІІІ.2. ІІІ.5. У досліді з вивчення амплітудно-частотної характеристики руки людини оператора для одного з досліджуваних отримані такі значення амплітуд (у мм) усталених коливань руки* 64 55 67 58 69 56 55 62 62 42
72 56 60 62 71 55 62 60 60 57
60 64 68 63 58 60 75 63 57 51
67 61 60 55 60 54 62 68 60 66
63 65 60 61 64 59 70 64 58 51
65 69 58 45 70 71 64 60 62 56
60 65 57 46 73 63 63 71 58 55
75 68 60 64 52 55 65 61 52 56
51 58 64 72 59 55 70 62 62 54
80 62 59 70 54 58 65 55 61 53
65 52 64 70 64 66 56 51 61 41
62 68 65 63 65 62 58 44 67 55
73 72 60 63 70 82 56 73 60 54
62 63 63 62 65 54 65 52 53 58
71 66 59 62 58 74 62 66 50 51
63 62 60 68 52 58 73 60 49 58
75 70 68 63 66 71 66 67 59 62
66 64 66 67 58 65 55 57 48 62
67 71 53 62 66 62 68 62 52 51
61 57 73 62 72 65 62 62 54 62
За цією вибіркою побудувати інтервальний варіаційний ряд, гістограму частот та графік емпіричної функції розподілу. Знайти медіану та квартилі цього ряду. ІІІ.6. Знайти точкові оцінки математичного сподівання, дисперсії та середнього квадратичного відхилення випадкової величини з вправи ІІІ.5. ІІІ.7. Знайти вірогідний інтервал для математичного сподівання випадкової величини з вправи ІІІ.5. ІІІ.8. Знайти вірогідний інтервал для стандартного відхилення випадкової величини з вправи ІІІ.5, припускаючи, що вона розподілена за нормальним законом.
*
Дані взято з книги Суходольский Г.В. Основы математической статистики для психологов.— Л.,1972.
62
ІV. Методи математичної обробки даних у психології Ознаки і змінні. Шкали вимірювання ознак Ознаками будемо називати вимірювані психологічні явища. Ними можуть бути затрачений на виконання завдання час, кількість виконаних завдань, кількість допущених помилок, рівень тривожності, інтенсивність реакції, вибраний колір тощо. Змінні, що відповідають цим ознакам є випадковими величинами, оскільки наперед не відомо значень, яких вони можуть набути у конкретному спостереженні. Проведення математичної обробки результатів спостережень передбачає числовий характер їх представлення. Приписування за певними правилами числових значень об’єктам або подіям називають вимірюванням. Іншими словами, результати спостережень повинні бути виміряні за допомогою спеціальних шкал. У психологічних дослідженнях виділяють чотири типи шкал вимірювання: номінативна; порядкова (або ординальна); інтервальна шкала; шкала рівних відношень. Номінативна шкала — це шкала, елементами якої є назви об’єктів чи явищ. Наприклад, результати опитування у тесті Люшера вимірюються шкалою, елементами якої є назви кольорів. Особливим видом номінативної шкали є дихотомічна шкала, яка складається лише з двох значень. Наприклад , стать — чоловіча або жіноча; відповідь на запитання — так або ні. Як бачимо, елементи номінативної шкали не є числами. Для проведення математичної обробки результатів спостережень необхідно спочатку прокласифікувати їх, тобто визначити, скільки раз у експерименті зустрічається кожне із значень шкали. Частоти появи цих значень вже можна піддавати статистичній обробці.
63
Порядкова шкала класифікує дані за впорядкованими класами. Якщо у номінативній шкалі не мав значення порядок запису елементів шкали, то елементи порядкової шкали утворюють послідовність класів. Для кожних двох класів порядкової шкали можна вказати, який з них більший від іншого. Порядкова шкала повинна містити не менше трьох класів, наприклад, темп реакції — повільний, середній, швидкий. Від класів порядкової шкали можна перейти до чисел, якщо кожному класу поставити у відповідність його ранг — номер у послідовності класів. Побудована таким чином шкала на жаль не відображає реальних відмінностей між класами. Так клас з рангом 3 може значно більше відрізнятись від класу з рангом 2, ніж, наприклад, клас з рангом 8 від класу з рангом 7. Але навіть виміряні за такою шкалою дані можуть дати істотну інформацію після статистичної обробки. Інтервальна шкала утворюється розбиттям області значень досліджуваної ознаки на рівні інтервали. Такою шкалою є, наприклад, шкала лінійки, шкала секундоміра, шкала динамометра, тощо. Однак вимірювання психологічних явищ фізичними одиницями не завжди є вимірюванням у психологічній інтервальній шкалі. Так відмінність на 1 с у тривалості розв’язування задачі, яку можна розв’язати за 5 с, істотно відрізняється від такої ж відмінності для задачі, яку розв’язують за 5 хв. Для вимірювання величин у психологічних спостереженнях справді рівноінтервальними шкалами можна вважати квантильні шкали. Квантильну шкалу можна побудувати таким чином. Спостерігаючи вимірювану величину за порядковою шкалою, визначаємо її розподіл. Знайшовши квантилі цього розподілу відповідного порядку (наприклад, децилі) отримуємо рівноінтервальну шкалу для вимірювання даної величини. На мал. 16 показано децильну шкалу для вимірювання ознаки, розподіленої за нормальним законом з математичним сподіванням 10 і стандартним відхиленням 3. Внизу подані значення випадкової величини, виміряні за порядковою шкалою. Така шкала є рівноінтерваль64
ною відносно нагромаджених частот. Однак довжини інтервалів,
1 0,9
виміряні в порядковій шкалі виявляються
різними,
а
перший
0,8 0,7
і
0,6
останній інтервал взагалі відкриті.
0,5 0,4
Для нормально розподілених
0,3 0,2
випадкових величин можна побу-
0,1
1
2
3 4 5 6 7
8
9
10
0
дувати шкалу в одиницях стандар-
0
6,2
20
7,5 8,4 9,2 10 10,8 11,6 12,5 13,8
тного відхилення, якою є, напри-
Рис. 16.
клад, шкала стенів (від англійського „standard ten” — “стандартна десятка”), запропонована Р.Кеттеллом. Побудова такої шкали ґрунтується на правилі „трьох сігм”, яке полягає в тому, що понад 99,7% значень нормально розподіленої випадкової величини лежать у проміжку (M–3σ, M+3σ). Відповідність між стенами і інтервалами порядкової
1
2
3
4
5
6
7
8
9
10
( M–3σ, M–2σ)
(M–2σ, M–1,5σ)
(M–1,5σ, M–σ)
(M–σ, M–0,5σ)
(M–0,5σ, M)
(M, M+0,5σ)
(M+0,5σ, M+σ)
(M+σ, M+1,5σ)
(M+1,5σ, M+2σ)
(М+2σ, M+3σ)
шкали задаються таблицею:
Як бачимо, для побудови інтервальної шкали важливо знати характер розподілу досліджуваної ознаки, виміряної у значеннях порядкової шкали. А це означає, що передовсім потрібно провести статистичні дослідження виду і параметрів розподілу цих даних. Шкала рівних відношень — це шкала, яка класифікує об’єкти пропорційно до вираженості вимірюваної властивості. Наприклад, якщо при виборі однієї з трьох альтернатив, альтернативу А обрали 8 досліджуваних, альтернативу Б — 16 досліджуваних, а альтернативу В — 32 досліджуваних, то можемо ствер-
65
джувати, що альтернативу Б вибирають удвічі частіше, ніж альтернативу А, а альтернативу В — у 4 рази частіше.
Перевірка гіпотези про однорідність вибірки Перевірка вибірки на однорідність має бути першим етапом статистичної обробки даних. Під однорідністю розуміють наявність в усіх елементів сукупності таких властивостей, які визначають їх однотипність. Неоднорідність вибірки може бути зумовлена наявністю похибки вимірювань даних або ж присутністю у вибірці аномальних елементів. Якщо неоднорідність вибірки зумовлена похибкою вимірювань і дослідник знає її причину, то відповідні елементи вибірки можна виключити перед початком статистичного аналізу даних. В іншому випадку потребують досліджень причини появи таких аномальних даних. Задача перевірки вибірки на однорідність зводиться до перевірки таких гіпотез: Н0: вибірка однорідна; Н1: вибірка містить аномальні елементи (промахи). Для перевірки цих гіпотез на заданому рівні значущості α використовують критерії Діксона. Якщо елементи вибірки розміщені у порядку зростання x1 x 2 x n , то перевірці на промах піддаються крайні ліві і крайні праві елементи. Формули для обчислення емпіричних значень критеріїв залежно від об’єму вибірки наведено у таблиці Об’єм вибірки Перевірка на промах х1 Перевірка на промах хп 3≤п≤7 8≤п≤10 11≤п≤13 14≤п≤25
x 2 x1 x n x1 x x1 r11 2 x n 1 x1 x x1 r21 3 x n1 x1 x x1 r22 3 x n 2 x1 r10
x n x n 1 x n x1 x x n1 r11 n xn x 2 x x n 2 r21 n xn x2 x x n2 r22 n x n x3 r10
Критичні значення критеріїв Діксона наведені у таблиці 3 додатка. 66
Нульова гіпотеза приймається, якщо емпіричне значення критерію не перевищує критичного для 0,05 , і відхиляємо, коли емпіричне значення критерію більше, ніж критичне для 0,01 . Приклад 19. Нехай при вимірюванні рівня вербального інтелекту за методикою Д.Векслера у 12 студентів отримано наступні дані: 126, 127, 132, 120, 119, 126, 120, 123, 120, 116, 123, 115. Перевірити гіпотезу про однорідність отриманої вибірки. Розв’язання: Впорядкувавши отримані дані, отримаємо такий варіаційний ряд: 115, 116, 119, 120, 120, 120, 123, 123, 126, 126, 127, 132. Обчислимо значення r21 для лівого краю ряду r21
119 115 0,333 . Для правого 127 115
127 126 0,0625 . Критичні значення критерію r21* (n 12, 0,05) 0,546 , 132 116 * r21 (n 12, 0,01) 0,642 . Оскільки обидва емпіричні значення критерію не перевищують критичного для
краю r21
0,05 , то приймається нульова гіпотеза, яка стверджує, що вибірка є однорідною.
Перевірка гіпотези про узгодженість розподілів Розрізняють два види задач перевірки гіпотез про узгодженість розподілів: порівняння отриманого емпіричного розподілу з деяким теоретичним та порівняння двох емпіричних розподілів. Задача першого типу виникає як правило тоді, коли для статистичної обробки результатів спостережень необхідно використати параметричний критерій. У цьому випадку нам апріорі потрібна інформація про вид розподілу отриманих даних. Для цього здійснюється порівняння емпіричного розподілу з одним з теоретичних. Задача другого типу виникає, наприклад, у випадку класифікації спостережуваних явищ. Узгодженість емпіричних розподілів двох явищ дає підстави віднести їх до одного класу, а неузгодженість — до різних класів. Для перевірки гіпотези про узгодженість розподілів найчастіше використовують 2 критерій Пірсона.
67
ч2 критерій Пірсона 2 критерій Пірсона застосовується як для перевірки узгодженості емпіричного розподілу із заданим теоретичним, так і для перевірки узгодженості емпіричних розподілів. Критерій є непараметричним. У першому випадку критерій служить для перевірки наступних гіпотез: Н0: розподіл ознаки збігається із заданим теоретичним; Н1: ознака розподілена за відмінним від заданого законом. Якщо ni — емпірична частота варіанти xi
i 1, k , а
f i np i , де p i —
k
ймовірність xi , а n ni — об’єм вибірки, то величину i 1
k ( ni f i ) 2 (ni n p i ) 2 n fi pi i 1 i 1 k
2 e
2 називають емпіричним значенням 2 критерію Пірсона. Критичну точку кр
для заданого рівня значущості α і ν ступенів вільності визначають з таблиць критичних значень розподілу 2 (таблиця 4 додатка) або в EXCEL за формулою =ХИ2ОБР(α;ν)). Кількість ступенів вільності ν визначають за формулою
k l 1, де k — кількість варіант, l — кількість незалежних параметрів розподілу, які визначаються за вибіркою. Якщо 2e 2кр для рівня значущості 0,05 , то приймається гіпотеза Н0, 2 у випадку, коли e2 кр для рівня значущості 0,01 , приймається альтерна-
тивна гіпотеза Н1. Приклад 20. Групі учнів 10–11 класів (90 чоловік) пропонували впорядкувати за важливістю такі риси ідеального учня: І — акуратність, ІІ — самостійність, ІІІ — уважність, ІV — творчість, V — допитливість, VI — активність, VII — обов'язковість, VIII — наполегливість, ІХ — сміливість, Х — відкритість, ХІ — почуття гумору, ХІІ — товариськість, ХІІІ —
68
рішучість, XIV — впевненість у своїх діях, XV — дружелюбність. Результати впорядкування подано в таблиці: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
І 18 12 11 10 3 11 6 5 5 2 1 2 2 2 0
ІІ 12 8 6 10 9 8 4 8 5 5 3 3 4 1 4
ІІІ 6 9 6 3 6 9 6 10 6 2 8 7 5 2 5
ІV 0 5 4 2 5 2 5 5 8 9 6 5 6 12 16
V 1 3 5 11 8 10 10 3 7 2 5 9 4 6 6
VI 6 7 8 9 11 7 5 6 7 6 2 3 2 10 1
VII 2 4 4 2 2 1 5 6 6 11 7 14 12 3 11
VIII 24 16 7 4 8 3 4 4 3 6 0 3 3 1 4
IX 2 7 6 2 5 4 9 1 4 10 11 4 5 13 7
X 3 2 8 6 4 14 7 6 8 6 5 4 6 7 4
XI 5 4 5 8 7 4 13 7 6 4 7 10 4 3 3
XII 3 3 5 6 11 6 5 6 12 9 5 7 5 4 3
XIII 0 2 5 6 1 3 3 7 4 7 8 5 7 10 22
XIV 4 4 7 4 4 7 4 6 7 6 11 6 7 9 4
XV 5 4 3 6 5 1 3 10 2 7 12 9 14 6 3
Чи можна стверджувати, що учні не надавали переваги уважності? Чи можна те ж саме стверджувати про наполегливість? Розв’язання: Якщо наше припущення правильне, то вибір даної ознаки мав би рівномірно розподілитись між п’ятнадцятьма місцями, тобто на кожне місце припало б по шість виборів. Розрахуємо емпіричне значення 2 критерію Пірсона.
2e
6 62 9 62 6
6
6 62 6
3 62
2 2 6 6 2 6
6
6
6
6 62 9 62 6
2 8 6
6
2 7 6
6
6 62 6
10 62
2 2 5 6 2 6
6
6
6
6
2 5 6
6
10,69.
Кількість ступенів вільності дорівнює 15 – 1 = 14. Критичні значення для ν = 14 і α = 0,05 та α = 0,01, відповідно дорівнюють 20, 05 23,68 та 20, 05 29,14 . Оскільки, 10,69 < 23,68, то приймається нульова гіпотеза, яка стверджує, що розподіл виборів ознаки за місцями статистично не відрізняється від рівномірного, тобто в характеристиці ідеального учня опитувані не надали переваги цій ознаці. Розрахуємо емпіричне значення 2 критерію для восьмої ознаки
2 e
2 24 6
6
2 16 6
6
2 2 7 6 4 6
3 62 6
6
6
2 8 6
6 62 0 62 6
6
6
2 3 6
3 62 6
6
2 4 6
6
3 62 1 62 6
6
2 4 6
6
4 62 6
90,33.
Оскільки, 90,33 > 29,14, то розподіл восьмої ознаки за 15 місцями нерівномірний. Можна стверджувати, що більшість опитаних віддавали перевагу цій ознаці ідеального учня.
69
Для неперервного розподілу порівнюємо емпіричні і теоретичні частоти попадання значень досліджуваної величини у відповідні класи. Зазначимо, що в цьому випадку статистика 2 тим точніше апроксимується 2 розподілом Пірсона, чим більші є теоретичні частоти у кожному класі. Як правило, вимагається, щоб частоти в кожному класі були не менші, ніж 5. А це іноді вимагає укрупнення класів. Приклад 21. Чи можна стверджувати, що час, затрачений учнями на розв’язування поставленої задачі (приклад 16), розподілений за нормальним законом? Розв’язання: Об’єм вибірки п = 124. Побудуємо інтервальний варіаційний ряд, розби-
[8; 25)
[25; 42)
[42; 59)
[59; 76)
[76; 93)
[93; 110)
[110; 127)
[127; 144)
[144;161)
[161;178)
[178; 195)
вши проміжок [8,195) на 11 інтервалів:
15
38
33
17
9
4
1
4
2
0
1
Оскільки на деяких інтервалах частоти менші, ніж 5, то зробимо укрупнення крайніх
[8; 25)
[25; 42)
[42; 59)
[59; 76)
[76; 93)
[93; 195)
інтервалів:
15
38
33
17
9
12
Вибіркове середнє та оцінка стандартного відхилення відповідно дорівнюють
x 53,8, s 31,9 . Теоретичні частоти для інтервалу [ x i 1 ; x i ) знаходимо за формулою
[25; 42)
[42; 59)
[59; 76)
[76; 93)
[93; 195)
ni fi
[8; 25)
x x x x f i n i i 1 . Отже, для заданих проміжків s s
15 13,4
38 21,4
33 25,9
17 23,8
9 16,6
12 13,5
Обчислимо емпіричне значення критерію 2 . 2e
15 13,4 2 38 21,42 33 25,9 2 17 23,82 9 16,6 2 12 13,52 20,66
13,4 21,4 25,9 23,8 16,6 13,5 Кількість ступенів вільності 6 1 2 3 , бо накладено дві додаткові в’язі для визначення
70
x та s. Критичні значення критерію відповідно дорівнюють 02, 05 7,81 та 02, 01 11,35 .
Оскільки 20,66 > 11,35, то гіпотеза про те, що час розв’язання задачі розподілений за нормальним законом з параметрами x 53,8, s 31,9 , відхиляється.
У випадку перевірки узгодженості двох (чи кількох) емпіричних розподілів 2 критерій Пірсона служить для перевірки наступних гіпотез: Н0: закони розподілів ознак не відрізняються між собою; Н1: ознаки розподілені за різними законами. Гіпотеза Н0 у цьому випадку фактично означає, що вибірки належать до однієї генеральної сукупності, тому в якості теоретичних частот у критерії 2 беруть усереднені за сукупністю вибірок частоти. Кількість ступенів вільності визначається за формулою (k 1)(c 1) , де k — кількість розрядів ознаки, с — кількість розподілів, що порівнюються. Приклад 22. За методикою Спілберга опитано дві групи віруючих: формально віруючі християни (ФВХ) та практикуючі християни (ПХ). Розподіл рівня особистісної тривожності у цих групах подано в таблиці. Низький Середній Високий ПХ 7 22 4 ФВХ 3 10 24 Чи можна стверджувати, що рівень особистісної тривожності в обох групах розподілений однаково? Розв’язання: Сформулюємо статистичні гіпотези для нашої задачі. Н0: Відмінності у розподілах рівнів особистісної тривожності є випадковими. Н1: Відмінності у розподілах рівнів особистісної тривожності закономірні. Вибірка практикуючих християн містить 33 елементи, а формально віруючих християн — 37 елементів. Тому у припущенні, що вибірки отримані з однієї генеральної сукупності, теоретичні частоти розраховуються так:
ПХ ФВХ
Низький 33 (7 3) 4,71 33 37 37 (7 3) 5, 29 33 37
Середній 33 (22 10) 15,09 33 37 37 (22 10) 16,91 33 37
Високий 33 (4 24) 13,2 33 37 37 (4 24) 14,8 33 37
Обчислимо значення статистики 2 .
71
2
2 7 4,71
4,71
2 3 5,29
5,29
2 22 15,09
15,09
2 10 16,91
16,91
2 4 13,2
13,2
2 24 14,8
14,8
1,11 0,99 3,17 2,83 6,41 5,72 20,22 Кількість ступенів вільності (3 1) (2 1) 2 . Знаходимо критичні значення критерію:
20,05 5,99 , 02, 01 9,21 . Оскільки 20,22 > 9,21, то нульова гіпотеза відхиляється.
Можемо стверджувати, що відмінності у розподілі рівнів особистісної тривожності в обох групах мають закономірний характер, зокрема у групі формально віруючих християн переважає високий рівень особистісної тривожності.
Критерій Колмогорова Критерій Колмогорова застосовують для перевірки узгодженості емпіричного розподілу деякої випадкової величини із заданим неперервним теоретичним розподілом, тобто для перевірки гіпотез:
H 0 : розподіл ознаки збігається з даним теоретичним; H 1 : ознака розподілена за відмінним від заданого законом. Критерій ґрунтується на зіставленні нагромаджених емпіричних і теоретичних частот (кумулянт). Статистикою виступає величина
n sup F * x F x n D , x
де F x — гіпотетична функція розподілу досліджуваної випадкової величини,
F * x — емпірична функція розподілу. Критична область — правостороння. Статистика виражає максимальну розбіжність між емпіричною і теоретичною функціями розподілу, що дозволяє оцінити узгодженість розподілів поточково. Якщо справджується нульова гіпотеза, то для достатньо малих проміжків інтервального варіаційного ряду і для достатньо великого обсягу вибірки статистика D має граничний розподіл, який не залежить від функції F, а саме
lim P D n x K x n
2 2
j 1 e 2 j x
,
j
що дозволяє визначати критичні значення кр (а відповідно і d кр кр заданого рівня значущості з наближеного рівняння 72
n ) для
P D n кр 1 K кр . Зокрема для 0,05 кр 1,354 , а для 0,01 кр 1,628 . Якщо емпіричне значення статистики d n кр , то з надійністю
1 приймається гіпотеза H 0 , в іншому випадку приймається альтернативна гіпотеза H 1 . Приклад 23. Чи можна стверджувати, що час, затрачений учнями на розв’язування поставленої задачі (приклад 16), розподілений за логнормальним законом? Розв’язання: Логнормальний розподіл з параметрами а та 2 задається щільністю x 0, 0, ln x a 2 f x 1 2 e 2 , x 0. x 2 Враховуючи, що для логнормального розподілу математичне сподівання і дисперсія
2
пов’язані з параметрами розподілу рівностями ln MX 2 2 a, ln DX 2 2a ln e 1 , та оцінки x 53,8, s 31,9 (див. приклад 21), знаходимо значення a 3,835 та 2 0,301 . Висуваємо гіпотези: H 0 : спостережувані затрати часу мають логнормальний розподіл з параметрами
a 3,835 та 2 0,301 ; H 1 : розподіл спостережуваних затрат часу відмінний від логнормального. Об’єм вибірки п = 124. Розбивши додатну піввісь на 11 інтервалів обчислимо емпіричні відносні частоти, значення емпіричної і теоретичної функцій розподілу для верхніх меж
інтервал
(0; 25)
[25; 42)
[42; 59)
[59; 76)
[76; 93)
[93; 110)
[110; 127)
[127; 144)
[144;161)
[161;178)
[178; +)
проміжків та їх різниці.
пі
15
38
33
17
9
4
1
4
2
0
1
i
0,121
0,306
0,266
0,137
0,073
0,032
0,008
0,032
0,016
0
0,008
Fi *
0,121
0,427
0,693
0,831
0,903
0,935
0,944
0,976
0,992
0,992
1
Fi
0,131
0,430
0,671
0,817
0,898
0,943
0,967
0,981
0,988
0,993
1
di
0,010
0,003
0,022
0,014
0,005
0,008
0,023
0,005
0,004
0,001
0
73
Таким чином емпіричне значення d 0,023 і 0,256 . Оскільки 0,256 кр 1,354 , то на рівні значущості 0,05 приймаємо гіпотезу H 0 , яка стверджує що даний розподіл збігається з логнормальним.
Критерій Смирнова Критерій Смирнова дозволяє на підставі двох серій незалежних спостережень x1 , x2 ,, x n та y1 , y 2 , , y m перевірити гіпотезу про те, що результати спостережень в обох серіях отримані з випробувань над величинами з однаковою функцією розподілу (порівняти два емпіричні розподіли). Статистичні гіпотези формулюються так:
H 0 : задані емпіричні розподіли збігаються; H 1 : задані емпіричні розподіли істотно відрізняються. Для перевірки гіпотез використовують статистику Смирнова
nm max Fn x Fm x n m x
nm Dmn , nm
де Fn x і Fm x — емпіричні функції розподілу першої і другої серій спостережень відповідно. Розподіл статистики Смирнова не залежить від виду функції розподілу і є протабульованим для малих т і п. Критична область визначається нерівністю
nm Dmn , nm де — квантиль розподілу статистики Смирнова, що відповідає рівню значущості . Для досить великих т і п критичне значення знаходимо із співвідношення 1 K . *
Приклад 24. Тест Мюнстерберга (в адаптивному варіанті Дворяшиної М.Д.) вимірювання вибірковості перцептивної уваги пропонувався студентам факультету психології Ленінградського університету (156 чол.) та акторам балету Маріїнського театру (85 чол.).
*
Дані взято з книги О.В.Сидоренко «Методи математичної обробки даних у психології».
74
Методика полягає в тому, що серед розміщених у довільному порядку букв на бланку досліджуваний повинен якнайшвидше знайти і підкреслити 24 слова різного рівня складності. Емпіричні розподіли кількості пропущених слів наведено в таблиці. Кількість пропущених слів 0 1 2 3 4 5 6 7 8 9 Студенти 93 27 11 15 5 3 2 0 0 0 Актори 22 20 16 4 3 11 3 3 2 1 Чи можна стверджувати, що ці розподіли однакові? Розв’язання: Формулюємо статистичні гіпотези. Н0: Емпіричні розподіли кількості пропущених слів у тесті статистично не відрізняються між собою. Н1: Емпіричні розподіли кількості пропущених слів у тесті істотно відмінні. Для їх перевірки знайдемо відносні частоти емпіричних розподілів, нагромаджені відносні частоти та їх різниці. Пропущено слів 0 1 2 3 4 5 6 7 8 9
Відносні частоти Студенти Актори 0,596 0,259 0,173 0,235 0,071 0,188 0,096 0,047 0,032 0,035 0,019 0,129 0,013 0,035 0,000 0,035 0,000 0,024 0,000 0,012
Нагромаджені відносні частоти Студенти Актори 0,596 0,259 0,769 0,494 0,840 0,682 0,936 0,729 0,968 0,765 0,987 0,894 1,000 0,929 1,000 0,965 1,000 0,988 1,000 1,000
Різниці 0,337 0,275 0,157 0,206 0,203 0,093 0,071 0,035 0,012 0,000
Максимальне відхилення нагромаджених відносних частот (кумулянт) дорівнює 0,337. Отже, статистика Смирнова
nm 156 85 Dmn 0,337 2,50 . Відповідні критичні nm 156 85
значення: 0, 05 1,36 та 0, 01 1,62 . Як бачимо, емпіричне значення статистики потрапляє в критичну область. Отже, приймаємо альтернативну гіпотезу, яка стверджує, що розподіли кількості пропущених слів у студентів університету і акторів істотно відмінні. У пакеті STATISTICA 6.0 перевірка гіпотези про узгодженість розподілу з даним теоретичним розподілом реалізується модулем Distribution Fitting. Дані спостережень заносимо в одну змінну. Із пропонованого модулем списку вибираємо вид теоретичного розподілу. Параметри розподілу визначаються модулем автоматично. Результати перевірки відповідних гіпотез для прикладів 21 і 23 можна побачити на рис. 17. Висновок про прийняття чи відхилення нульової гіпотези у кожному з цих випадків робимо за величиною рівня значущості р емпіричного значення відповідного критерію (приймаємо нульову гіпотезу, якщо p 0,05 і відхиляємо її та приймаємо альтернативну гіпотезу, якщо p 0,01 ).
75
Variable: Var1, Distribution: Log-normal Chi-Square test = 3,95134, df = 3 (adjusted) , p = 0,26677
Variable: Var1, Distribution: Normal Chi-Square test = 42,37102, df = 4 (adjusted) , p = 0,00000 50
50 45
40
40
35
35 No. of observations
No. of observations
45
30 25 20
30 25 20
15
15
10
10
5
5
0
0 -20
0
20
40
60
80
100
120
140
160
180
200
220
-20
0
20
40
60
80
100
120
140
160
180
200
220
Category (upper limits)
Category (upper limits)
Рис. 16
Перевірка гіпотези про рівність двох дисперсій Перевірку гіпотези про рівність дисперсій двох нормально розподілених генеральних сукупностей на основі вибірок з них здійснюють за допомогою критерію Фішера. Оцінками дисперсій генеральних сукупностей слугують обчислені за вибірками з них незміщені оцінки s i2 . В цьому випадку статистичні гіпотези формулюються так. Н0: Дисперсії нормально розподілених генеральних сукупностей рівні. Н1: Дисперсія генеральної сукупності з більшою незміщеною оцінкою дисперсії більша від дисперсії генеральної сукупності, представленої іншою вибіркою. Статистика Фішера
s12 F 2, s2 де s12 — більша, а s 22 — менша з незміщених оцінок дисперсій генеральних сукупностей за вибірками, при виконанні нульової гіпотези має розподіл ФішераСнедекора з k1 n1 1 , k 2 n 2 1 ступенями вільності. Критичну точку
Fкр , k1 , k 2 правосторонньої критичної області для рівня значущості знаходять за таблицями критичних значень розподілу Фішера-Снедекора (таблиця 5 додатка) або в EXCEL за формулою =FОБР(α;k1;k2). 76
Приклад 25. Порівняти дисперсії розподілу кількості пропущених слів групою акторів та групою студентів за даними попереднього прикладу. Розв’язання: Формулюємо статистичні гіпотези. Н0: Дисперсії розподілів кількості пропущених слів у тесті статистично не відрізняються між собою. Н1: Дисперсія з більшою незміщеною оцінкою більша. 2 Обчислимо незміщені оцінки дисперсій для кожної з вибірок: s ст2 1,97 , s акт 5,47 .
Відношення Фішера F
2 sакт 5,47 2,78 . Але Fкр 0,05; 84;155 1,36 , а Fкр 0,01; 84;155 2 s ст 1,97
1,55 , тому обчислене емпіричне значення критерію Фішера потрапляє у критичну область. Нульова гіпотеза відхиляється, приймається гіпотеза Н1.
Виявлення відмінностей у рівні досліджуваної ознаки Критерій Розенбаума Критерій Розенбаума призначений для порівняння двох вибірок за рівнем досліджуваної ознаки виміряної в порядковій або інтервальній шкалі. Критерій непараметричний. Статистичні гіпотези формулюються так. Н0: Рівні досліджуваної ознаки у вибірках статистично не відрізняються. Н1: У одній з вибірок рівень досліджуваної ознаки вищий, ніж в іншій. Статистика Розенбаума
Q S1 S 2 , де S1 — кількість елементів вибірки з максимальним елементом, що перевищують найбільший елемент іншої вибірки, S 2 — кількість елементів цієї вибірки, менших, ніж найменший елемент вибірки з максимальним елементом. Критичні значення критерію Q наведено в таблиці 6 додатка. Критерій дозволяє констатувати наявність відмінності в рівнях досліджуваної ознаки, якщо обсяги вибірок приблизно однакові і більші десяти.
77
Приклад 26. За методикою Спілберга опитано дві групи віруючих: формально віруючі християни (ФВХ) — 26 чоловік та практикуючі християни (ПХ) — 25 чоловік у кожній. Результати за шкалою ситуативної тривожності у цих групах подано в таблиці. ПХ 35 15 13 31 20 25 24 20 21 18 21 16 11 8 23 22 15 9 7 16 15 10 15 8 24 ФВХ 54 52 49 47 47 46 41 39 38 38 36 36 36 35 34 34 30 30 29 27 27 27 26 26 25 24
Чи можна стверджувати, що рівень ситуативної тривожності в обох групах однаковий? Розв’язання: Формулюємо статистичні гіпотези. Н0: Рівні досліджуваної ознаки статистично не відрізняються між собою. Н1: Рівень досліджуваної ознаки вищий у групі ФВХ. Запишемо дані для кожної з груп у порядку спадання. ПХ 35 31 25 24 24 23 22 21 21 20 20 18 16 16 15 15 15 15 13 11 10 9 8 8 7 ФВХ 54 52 49 47 47 46 41 39 38 38 36 36 36 35 34 34 30 30 29 27 27 27 26 26 25 24
Як видно з таблиці S1 13 , S 2 20 . Отже Qемп 13 20 33 . Для заданих обсягів вибірок Q0, 05 7 , а Q0, 01 9 . Нанесемо ці значення на числову вісь. Q0, 05
7
Q0, 01
Qемп
9
33
Емпіричне значення критерію потрапило в критичну область. Тому гіпотезу H 0 відхиляємо. Приймаємо альтернативну гіпотезу, яка стверджує, що рівень ситуативної тривожності у групі формально віруючих християн вищий, ніж у групі практикуючих.
Критерій Манна-Уітні Критерій Манна-Уітні також призначений для порівняння двох вибірок за рівнем досліджуваної ознаки виміряної в порядковій або інтервальній шкалі. Критерій непараметричний. За об’єднаною вибіркою формується варіаційний ряд. Для кожного значення варіанти визначається її ранг — порядковий номер (або середнє арифметичне порядкових номерів) цієї варіанти у ряді. Для кожної вибірки обчислюється сума рангів значень, що до неї входять. Статистичні гіпотези формулюються так. Н0: Рівні досліджуваної ознаки у вибірках статистично не відрізняються. Н1: У одній з вибірок рівень досліджуваної ознаки вищий, ніж в іншій. Статистика Манна-Уітні обчислюється за формулою
78
1 U n1n2 n* n* 1 T * , 2 де n1 , n2 — обсяги вибірок, T * — більша рангова сума, n* — обсяг вибірки з більшою ранговою сумою. Критерій має лівосторонню критичну область. Критичні значення критерію U наведено в таблиці 7 додатка. Зауважимо, що для
U n1n2 / 2 має розподіл, близький до стаn1n2 n1 n2 1 / 12
n1 8, n2 8 статистика Z ндартного нормального.
Приклад 27. На підставі критерію Манна-Уітні перевірити гіпотезу про відсутність відмінності рівнів ситуативної тривожності за даними прикладу 26. Розв’язання: Формулюємо статистичні гіпотези. Н0: Рівні досліджуваної ознаки статистично не відрізняються між собою. Н1: Рівень досліджуваної ознаки вищий у групі ФВХ. Запишемо варіаційний ряд для об’єднаної вибірки та визначимо ранги кожної з варіант цього ряду. 1
7
2,5
8
26,5
8
4
5
6
7
9,5
12,5
14
15,5
17,5
19 20
22
24,5
9 10 11 13 15 15 15 15 16 16 18 20 20 21 21 22 23 24 24 24 25 25 29
31
32,5
34
35,5
37,5
40
42,5
44 45 46
47,5
49 50 51
26 26 27 27 27 29 30 30 31 34 34 35 35 36 36 36 38 38 39 41 46 47 47 49 52 54
Для кожної з груп знаходимо суму рангів її елементів та обчислюємо статистику Манна-Уітні. 26 27 T1 350, T2 976, U 25 26 976 25 . 2 Для заданих об’ємів вибірок U 0, 05 237, U 0,01 201 . Емпіричне значення критерію Манна-Уітні потрапляє в критичну область, тому гіпотезу Н0 відхиляємо і приймаємо альтернативну гіпотезу.
Критерій Манна-Уітні реалізовано в пакеті STATISTICA 6.0. Для застосування критерію дані про рівень ситуативної тривожності вводимо в змінну ST. У змінній gr вказуємо код групи, до якої належить досліджуваний (ПХ чи ФВХ). Результати обробки даних модулем Nonparametrics/Comparing two independent samples отримуємо у вигляді таблиці (рис. 18).
79
Висновок про наявність чи відсутність відмінностей у рівні досліджуваної ознаки робимо на підставі значення рівня значущості р емпіричного значення критерію. Оскільки p 0,01 , то приймаємо альтернативну гіпотезу.
Рис. 18
Критерій Стьюдента Критерій Стьюдента дає змогу порівняти середні значення досліджуваної нормально розподіленої ознаки як для двох взятих з однієї генеральної сукупності вибірок, так і для вибірок, що репрезентують дві різні генеральні сукупності. У першому випадку вважаємо, що виправлені вибіркові дисперсії є оцінками невідомої дисперсії генеральної сукупності. У другому випадку дисперсії генеральних сукупностей вважаємо різними. І. Вибірки взяті з однієї генеральної сукупності У цьому випадку для дисперсій має виконуватись гіпотеза 12 22 (перевіряємо на підставі критерію Фішера). Оцінкою дисперсії генеральної сукупності служитиме величина s 2 Статистика T
n1 1s12 n2 1s22 . n1 n 2 2
x1 x2 s 1 / n1 1 / n2
x1 x2 n1 n2 n1 1s12 n 2 1s22 n1 n2 n1 n 2 2
,
де xi — вибіркове середнє, si2 — незміщена оцінка дисперсії, а ni — об’єм і-ої вибірки, має розподіл Стьюдента з n1 n2 2 ступенями вільності. Тому при перевірці гіпотези H 0 : “середні рівні досліджуваної ознаки в обох вибірках однакові” при конкуруючій гіпотезі H 1 : “середні рівні досліджуваної ознаки від80
різняються” нульова гіпотеза на рівні значущості приймається, якщо T
t1 / 2,n1 n2 1 (тут t1 / 2, n1 n2 1 — квантиль рівня 1 / 2 розподілу Стьюдента з n1 n2 1 ступенями вільності), і відхиляється в іншому випадку. При перевірці гіпотези H 0 : “середні рівні досліджуваної ознаки в обох вибірках однакові” при конкуруючій гіпотезі H 1 : “середній рівень досліджуваної ознаки більший у вибірці з більшим вибірковим середнім” нульова гіпотеза на рівні значущості приймається, якщо T t1 , n1 n2 1 , і відхиляється в іншому випадку. ІІ. Вибірки взяті з різних генеральних сукупностей У цьому випадку гіпотеза про рівність дисперсій може не виконуватись. Статистика
T
x1 x 2 2 1
,
2 2
s / n1 s / n2 де xi — вибіркове середнє, si2 — незміщена оцінка дисперсії, а ni — об’єм і-ої вибірки, має розподіл Стьюдента з k
s
2 1
/ n1 s 22 / n2
s
2
/ n1 s / n 2 n1 1 n2 1 2 1
2
2 2
2
ступенями вільності.
Тому при перевірці гіпотези H 0 : “середні рівні досліджуваної ознаки в обох вибірках однакові” при конкуруючій гіпотезі H 1 : “середні рівні досліджуваної ознаки відрізняються” нульова гіпотеза на рівні значущості приймається, якщо T t1 / 2, k , де t1 / 2, k — квантиль рівня 1 / 2 розподілу Стьюдента з k ступенями вільності, і відхиляється в іншому випадку. При перевірці гіпотези
H 0 : “середні рівні досліджуваної ознаки в обох вибірках однакові” при конкуруючій гіпотезі H 1 : “середній рівень досліджуваної ознаки більший у вибірці з більшим вибірковим середнім” нульова гіпотеза на рівні значущості приймається, якщо T t1 , k , інакше — відхиляється. В пакеті STATISTICA 6.0 порівняння середніх двох вибірок нормально розподілених ознак реалізовано в модулі Basic Statistics/Tables (рис.19). Якщо
81
вибірки взято з однієї генеральної сукупності, то використовуємо субмодуль ttest, independent, by groups. Для двох різних генеральних сукупностей використовуємо субмодуль t-test, independent, by variable. Приклад 28. Результати опитування групи студентів (80 осіб) за тестом Томаса поведінки в конфліктній ситуації та за ставленням до виграшу в грі подано в таблиці. Порівняти рівні показників по шкалах тесту Томаса у групах з різним ставленням до виграшу.
Рис. 19 № пп суперництво співробітництво
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
5
4
0
3
0
6
4
4
0
4
3
4
0
8
3
1
2
0
4
0
9
4
0
3
2
1
8
6
8
4
6
5
5
9
9
6
8
6
8
6
3
9
7
3
7
8
7
5
7
7
5 10
9
8
компроміс
8
5
9
7
8 10
8
9
4 11
9
8
7 10 10
9
7
8
8
8
4
7
6
7
6
8
6
уникнення
8 11
8
5
8
6
4 10
9
4
6
9
9
8
2
5
8
4
9
7
6
5
6
4
3
5
4
пристосу2 2 9 8 9 5 3 4 10 4 3 6 11 4 4 4 9 7 8 10 4 8 8 8 6 7 2 вання ставлення до 0 1 0 -1 0 0 1 0 -1 1 1 1 0 1 1 -1 -1 -1 0 0 0 -1 0 -1 -1 0 0 виграшу* № пп 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 супер1 4 0 7 12 2 5 8 0 7 8 3 12 0 0 1 5 5 1 10 2 10 11 3 9 1 1 ництво співробіт6 7 8 10 5 11 10 4 10 6 5 3 4 10 8 6 7 6 7 3 10 5 3 11 6 10 8 ництво компроміс
6
9
8
6
6
5
7
6
8
6 11 10
4
8
8
8
7
6
5
4
5
9
8
8
9
5
9
уникнення
8
7
8
3
4
4
5
8
5
3
3
4
6
8
4
3
8
6
7
3
4
5
3
7
4
2
6
пристосу9 3 6 4 2 8 3 4 6 8 4 6 5 8 8 7 11 10 9 7 6 3 4 3 3 7 7 вання ставлення до 0 -1 -1 0 0 -1 -1 0 1 0 0 1 1 -1 -1 0 0 1 -1 0 -1 1 -1 -1 1 0 -1 виграшу* № пп 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 супер3 2 5 4 6 1 1 1 11 10 4 4 7 1 0 3 3 8 1 6 1 6 6 4 8 1 ництво співробіт7 8 8 10 7 8 8 7 7 7 5 3 9 8 9 6 7 7 9 10 8 8 7 10 5 9 ництво компроміс
10
уникнення пристосування ставлення до виграшу* *
7 10
9
8
7
6
7
2
6
6
8
5
8
8
7
8
7
6
6
8
4
8
9 11
8
3
5
2
3
4
5
5
5
4
5
4
7
4
5
6
9
4
7 10
6
7
6
4
3
2
5
7
8
6
4
5
8 10 10
6
2 11
7
5
8
7
5
9
1
4
2
6
5
5
4
4
7
0 -1
1
0
0
0 -1 -1
0 -1
1
1
0
0
0 -1
0
0
0 -1
0
1
0
0
0
0
“граю заради виграшу” — 1, “мені байдуже” — 0, “граю заради гри” — -1.
82
Розв’язання. За допомогою модуля Distribution Fitting переконуємось, що всі шкали тесту Томаса крім “суперництва” розподілені за нормальним законом. Аналіз даних в модулі t-test, independent, by groups показує такі результати (Рис.20). Як видно з малюнка, модуль
Рис.20 одночасно виконує перевірку рівності дисперсій за критерієм Фішера (дві останні колонки таблиць). Для досліджуваних груп вибіркові дисперсії кожної зі змінних статистично не відрізняються між собою p 0,05 , що робить правомірним застосування критерію Стьюдента для порівняння їх середніх значень в кожній з груп. Як бачимо з результатів, істотна відмінність середніх значень спостерігається лише за змінною “пристосування” між групою студентів, які беруть участь у грі заради гри (6,8), та групою, що грають задля виграшу (4,8). Для порівняння показників за шкалою “суперництво”, характер розподілу якої не встановлений, скористаємось критерієм Манна-Уітні. Результати порівняння (рис.21) вказують, що в групі студентів, які грають заради гри, рівень суперництва вищий, ніж в групі, що
83
бореться задля виграшу p 0,0005 . Відмінності за шкалою “суперництво” між двома іншими парами груп статистично не істотні.
Рис.21 Приклад 29. За допомогою методики діагностики самооцінки психічних станів за Г. Айзенком опитано 20 учнів з дитячого притулку та 25 учнів, що проживають в повних сім’ях. Результати опитування подано в таблиці. Порівняти середні рівні досліджуваних ознак у цих групах. Діти з дитячого притулку 14 13 15 15 12 11 10 13 15 14 8 7 10 11 9 7 7 12 11 13 12 14 12 14 13 15 12 11 14 12 8 12 12 13 12 12 10 15 12 14 18 9 16 11 16 17 14 15 11 17 12 4 8 15 16 15 15 17 16 15 16 10 16 10 12 10 9 11 10 12 15 8 13 10 10 9 12 9 10 9 Діти з повних сімей тривожність 7 16 6 6 6 13 8 8 5 10 10 7 6 6 12 6 6 2 7 2 9 14 9 9 4 фрустрація 14 10 9 7 8 11 4 6 6 13 16 11 13 13 12 10 8 1 5 2 8 13 12 10 6 агресія 17 14 16 12 4 15 14 9 9 4 11 13 14 15 13 15 14 12 16 12 18 6 10 14 16 ригідність 12 15 15 12 10 13 12 13 9 9 11 13 12 14 13 14 16 3 8 10 11 14 11 13 13 тривожність фрустрація агресія ригідність
Розв’язання: Оскільки дані взято з різних генеральних сукупностей, то внесемо в окремі змінні в пакет STATISTICA 6.0 дані для кожної групи. В модулі Basic Statistics/Tables вибираємо субмодуль t-test, independent, by variable і на закладці Options ставимо відмітку біля пункту t-test with separate variance estimates. Результати порівняння наведені на рис. 22. Як видно з результатів тестування у дітей з притулку істотно вищий рівень середнього показника по шкалах тривожності та фрустрації.
Рис. 22
84
Перевірка наявності зсуву у значеннях досліджуваної ознаки У багатьох психологічних експериментах внаслідок впливу певних контрольованих чи неконтрольованих факторів (часу, застосування певної методики, зміни ситуації) результати спостережень досліджуваної ознаки зазнають зміщень, які можуть бути довільними або ж мати закономірний характер. Тому для оцінки достовірності впливу таких факторів важливо встановити наявність зсуву у значеннях досліджуваної ознаки. Непараметричними критеріями, що дозволяють встановити достовірний зсув у значеннях досліджуваної випадкової величини є критерій знаків та критерій Вілкоксона. Наявність зсуву у значеннях нормально розподіленої ознаки дає змогу перевірити парний t-тест Стьюдента. Критерій знаків Критерій призначений для встановлення достовірності зсуву в значеннях досліджуваної ознаки, виміряної за порядковою, інтервальною чи шкалою рівних відношень. Критерій дає змогу встановити напрям зміщення, але не дозволяє оцінити абсолютну величину цих зміщень. Статистичні гіпотези, що перевіряють за цим критерієм формулюються так. Н0: Типовий зсув у значеннях досліджуваної ознаки в двох заданих умовах відсутній. Н1: Типовий зсув у значеннях досліджуваної ознаки в двох заданих умовах є закономірним. Статистика G критерію обчислюється як відношення кількості зсувів нетипового напрямку до загальної кількості п наявних зсувів (нульові різниці не беруться до уваги). За умови, що нульова гіпотеза правильна, а пари спостережень незалежні, статистика G має біномний розподіл з параметрами п і p 1 / 2 . Критерій знаків лівосторонній. Його критичні значення для рівнів значущості 0,05 та 0,01 наведені в таблиці 8 додатку. 85
Критерій Вілкоксона Як і критерій знаків призначений для перевірки таких самих статистичних гіпотез. Однак на відміну від критерію знаків критерій Вілкоксона враховує не тільки напрям, але й інтенсивність зсувів значень досліджуваної ознаки, тому критерій є більш надійним. Статистика Т критерію Вілкоксона дорівнює сумі рангів модулів нетипових зсувів значень досліджуваної ознаки (нульові різниці не беруться до уваги). Критерій має лівосторонню критичну область. Критичні значення для рівнів значущості 0,05 та 0,01 наведені в таблиці 9 додатку. Обидва критерії в пакеті STATISTICA 6.0 реалізовані в модулі Nonparametrics / Comparing two dependent samples (variables). Дані тестувань необхідно вносити в окремі змінні. Приклад 30. Заміри у групі дітей, з якими проводився спеціальний тренінг зроблено до і після проведення тренінгу. За наведеними в таблиці даними перевірити наявність зсуву у значеннях ознак “комфортність” та “дискомфорт”.
Зов. контроль
Домінування
Керованість
Ескапізм
18 17 13 15 14 23 19 21 17 22 15 17
Вн. контроль
24 21 20 23 12 25 18 27 21 19 20 21
Дискомфорт
11 13 7 6 6 7 6 8 13 16 14 13
Комфортність
7 30 28 20 17 32 27 31 24 29 28 20
Неприйняття інших
Ескапізм
64 65 47 58 51 62 63 54 52 47 54 60
Прийняття інших
Керованість
14 10 21 11 14 21 26 18 16 21 20 17
Неприйняття себе
Домінування
36 29 25 32 31 31 37 24 25 30 29 28
Прийняття себе
Зов. контроль
13 9 24 11 25 21 24 22 16 22 11 23
Дезадаптивність
Вн. контроль
33 29 20 29 31 29 27 25 29 23 21 28
156 71 166 94 123 113 155 78 155 90 156 137 158 130 121 154 137 103 132 116 138 104 136 106
41 64 41 46 57 53 50 35 43 49 42 37
5 13 16 16 14 14 18 32 19 15 12 14
33 27 17 29 31 29 25 20 29 23 24 28
15 9 31 12 26 26 28 22 17 22 15 25
37 28 25 31 31 30 37 27 25 31 26 28
16 17 20 16 18 32 27 39 19 23 20 20
65 64 49 58 49 61 63 48 52 46 54 58
8 34 32 20 19 38 29 45 27 30 32 23
11 13 7 7 6 8 6 8 12 16 15 13
26 24 20 24 13 27 20 27 26 19 22 21
20 19 24 15 14 25 24 23 23 24 24 21
Адаптивність
Дискомфорт
4 11 13 10 14 9 17 25 14 15 10 14
Комфортність
43 67 41 46 58 53 52 37 43 49 44 37
Прийняття інших
Неприйняття себе
Володя Наталя-1 Олена Ігор Богдан Катя Дмитро Наталя-2 Оксана Ольга Юля Уляна
Після тренінгу
Неприйняття інших
Прийняття себе
157 62 166 87 142 100 150 70 159 90 164 97 158 100 128 110 137 103 132 85 140 104 145 99
Адаптивність
Дезадаптивність
До тренінгу
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Зсув у значеннях досліджуваної ознаки відсутній. Н1: Зсув у значеннях досліджуваної ознаки під впливом тренінгу відбувся. Обчислимо зсуви значень для цих ознак. Комфортність Дискомфорт
86
1 2
-1 7
0 -1
-1 5
0 4
-1 11
0 1
3 21
0 3
1 2
-3 0
0 3
Як бачимо з таблиці за шкалою “комфортність” наявні 7 зсувів, з яких 3 нетипові. Статистика G для цієї ознаки дорівнює
3 0,429 . Критичні значення для n 7 знаходимо з 7
таблиці 8 додатка: G0, 05 0, G0, 01 0 . Емпіричне значення критерію потрапляє в зону прийняття нульової гіпотези, що дає нам підстави стверджувати, що в результаті тренінгу достовірних змін рівня значень за шкалою “комфортність” не відбулось. За шкалою “дискомфорт” відбулось 11 зсувів, з яких 1 нетиповий, тому Gемп
1 0,091 . Критичні значення для 11
n 11 відповідно дорівнюють G0, 05 2 / 11, G0, 01 1 / 11 . Емпіричне значення критерію по-
трапляє в критичну область, тому гіпотезу Н0 відхиляємо і приймаємо гіпотезу Н1. Таким чином у результаті тренінгу зросли показники значень ознаки “дискомфорт”. Приклад 31. Результати тестування за методикою Баса-Дарки групи дітей, з якими проводився тренінг на зниження рівня ситуативної тривожності, наведено в таблиці. Чи можна вважати, що “побічним ефектом” тренінгу є зниження індексу агресивності? фіз.агрес.
непр.агр.
подразн.
негатив.
образа
підозріл.
верб.агр.
поч.вини
інд.ворож
інд.агрес.
6 6 5 3 1 3 1
інд.агрес.
2 3 4 1 2 3 4
інд.ворож
образа
6 8 5 3 1 3 5
поч.вини
негатив.
3 5 3 2 4 2 6
Після тренінгу
верб.агр.
дратів.
7 8 6 5 3 4 4
5 7 6 8 8 10 7 4 5 5 6 5 5 5
9 8 5 6 3 6 5
11 12 13 10 6 9 10
20 24 21 12 9 12 14
3 5 5 2 2 3 2
2 3 3 0 2 1 3
3 5 5 3 2 1 4
2 1 2 2 2 2 2
3 3 2 1 1 1 0
3 2 5 3 3 5 4
5 2 8 2 6 3 3
4 5 2 4 2 4 4
6 5 7 4 4 6 4
11 12 18 7 10 7 9
підозріл.
непр.агр.
Наталія Тарас Микола Марта Оксана Юлія С. Юлія Ш.
фіз.агрес.
До тренінгу
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Зсув у значеннях досліджуваної ознаки відсутній. Н1: Під впливом тренінгу відбулося зменшення індексу агресивності. Проведемо перевірку наявності зсуву у значеннях цієї ознаки за критерієм Вілкоксона. Для цього спочатку обчислимо ранги абсолютних величин зсувів значень досліджуваної ознаки. Різниці індексів агресивності Ранги
-9 6
-12 7
-3 2
-5 4
1 1
-5 4
-5 4
Емпіричне значення статистики Вілкоксона T 1 . Критичні значення T0, 05 3 , T0, 01 0 . Таким чином, немає підстав для прийняття гіпотези Н0. На рівні значущості 0,05
можемо дати ствердну відповідь на поставлене у задачі запитання.
87
Зауважимо, що критерій знаків у цьому випадку дає негативну відповідь.
Парний t-тест Стьюдента Статистичні гіпотези, що перевіряють за цим критерієм формулюються так. Н0: Типовий зсув у значеннях досліджуваної нормально розподіленої ознаки в двох заданих умовах відсутній. Н1: Наявний зсув у значеннях досліджуваної нормально розподіленої ознаки в двох заданих умовах. Статистикою критерію служить величина
t
x s /
n
,
де п — об’єм вибірки x — середнє значення зсувів, а s — їх стандартне відхилення. Якщо виконується нульова гіпотеза, то статистика t має розподіл Стьюдента з n 1 ступенями вільності. Тому на рівні значущості гіпотеза H 0 приймається, якщо tемп t1 , n 1 , і відхиляється в іншому випадку. У пакеті STATISTICA 6.0 критерій реалізований у модулі Basic Statistics/Tables / t-test dependent samples. Дані тестувань необхідно вносити в окремі змінні. Приклад 32. Результати тестування групи учнів за методикою Спілберга до і після прослуховування певного музичного фрагменту подано в таблиці. Чи можна стверджувати, що рівні тривожності змінилися внаслідок впливу музики?
№ респ. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 РТ 29 42 16 44 33 47 28 19 20 17 40 13 39 26 44 47 47 31 33 36 до OT 48 52 38 62 48 57 51 72 46 45 60 29 54 59 56 69 62 47 51 53 РТ 36 29 54 44 29 47 19 48 29 12 40 52 38 24 40 47 51 27 34 24 після OT 56 60 36 62 46 57 46 70 49 39 60 29 59 53 55 66 61 50 51 50 № респ. 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 РТ 26 20 22 17 17 23 20 29 40 29 29 22 19 24 37 23 35 27 21 14 до OT 45 40 37 41 50 48 41 48 45 48 43 45 44 38 61 37 45 46 39 36 РТ 52 49 58 62 46 46 51 56 44 29 57 22 54 24 38 12 35 19 50 14 після OT 45 43 35 37 52 49 39 50 46 53 39 45 42 38 65 41 45 44 42 36
88
Розв’язання: Внесемо дані в пакет STATISTICA 6.0 позначивши змінні до і після прослухування музики OT, RT i OT1, RT1 відповідно. За допомогою модуля Distribution fitting переконуємось, що всі чотири змінні розподілені за нормальним законом. У модулі Basic Statistics/Tables вибираємо субмодуль t-test dependent samples і вказуємо змінні, які треба порівняти між собою. Результат порівняння показано на рис. 23.
Рис. 23 Як бачимо внаслідок прослухування музичного фрагменту рівень особистісної тривожності практично не змінився p 0,814 , тоді як рівень реактивної тривожності істотно зріс p 0,0007 .
Перевірка впливу фактора на зміну рівня досліджуваної ознаки Цілий ряд задач обробки даних психологічних експериментів пов’язані з порівнянням рівнів досліджуваних ознак у трьох і більше групах та виявленням тенденцій зміни цих рівнів при переході від групи до групи (наприклад, спостереження за часом розв’язання однією групою людей задач різного рівня складності, порівняння кількості виконаних завдань різними групами людей при різних рівнях стимулювання і т.п.). Задачі такого типу називають задачами однофакторного аналізу. Звичайно певні висновки можна зробити, порівнюючи групи спостережень попарно. Проте є цілий ряд ефективних критеріїв, що дозволяють здійснювати їх порівняння в сукупності. Частина з них (критерій Джонкхієра, критерій Пейджа) дають змогу дослідити тенденції зміни рівня ознаки при переході від групи до групи, інші ж (критерій Краскела-Уоллеса, однофакторний дисперсійний аналіз) лише встановити відмінності в рівні досліджува89
ної ознаки в різних групах. В останньому випадку для визначення тенденції рівнів досліджуваної ознаки при переході від групи до групи варто застосувати відповідні оцінки параметрів розподілів досліджуваних ознак. Критерій Краскела-Уоллеса Критерій Краскела-Уоллеса призначений для порівняння рівня досліджуваної ознаки в трьох і більше вибірках. Критерій ранговий і є модифікацією критерію Манна-Уітні на випадок багатьох вибірок. Статистичні гіпотези формулюються так. Н0: Рівні досліджуваної ознаки у всіх вибірках статистично не відрізняються один від одного. Н1: Рівні досліджуваної ознаки у вибірках істотно відрізняються. За даними спостережень проводиться ранжування об’єднаної вибірки та обчислюються суми рангів спостережень у кожній з вибірок. Статистика Краскела-Уоллеса k Ti 2 12 H 3N 1 , N N 1 i 1 ni
де ni i 1, k — об’єм кожної з k вибірок, Ti — її рангова сума, N — сукупна кількість спостережень, для k 3 має близький до 2 з k 1 ступенем вільності розподіл. Для k 3, ni 5 розподіл статистики Н протабульовано (таблиця 10 додатка). Критерій має лівосторонню критичну область. Для встановлення тенденцій рівня досліджуваної ознаки можна скористатись медіанним тестом, який порівнює емпіричні розподіли кожної з вибірок при розбитті на два класи медіаною об’єднаної вибірки. У пакеті Statistica 6.0 критерій Краскела-Уоллеса разом з медіанним тестом реалізовано у субмодулі Comparing multiple independent Samples(groups) модуля Nonparametrics.
90
Приклад 33. Інтегральний показник якості життя для 100 хворих на епілепсію наведено в таблиці. Чи можна стверджувати, що є тенденція до зниження рівня якості життя при зростанні частоти епілептичних припадків? Рідко (р) 82,1 84,3 50,9 90,7 83,5 51,1 74,5 74,7 59,9 63,4 67,7 66,7 71,5 44,8 54,4 77,4 54,2 67,0 72,7 88,0 65,3 37,0 68,3 71,7 77,1 33,8 66,7 54,1 74,1 47,0 56,7 39,3 33,4 39,0 47,0 55,8 67,4 60,8 40,8 36,6 38,2 72,8 53,9 34,2 Часто (ч) 51,3 65,0 54,8 63,4 64,5 26,6 34,2 47,1 79,3 51,4 49,1 64,4 37,8 26,2 36,6 77,8 47,8 58,2 57,9 55,1 32,7 62,2 57,3 60,5 69,0 71,6 61,0 45,3 50,8 45,6 44,5 76,8 58,1 60,8 51,3 46,1 54,8 32,0 39,4 63,2 53,3 59,7 53,7 30,6 Дуже часто (д) 73,9 60,6 35,6 58,1 62,7 36,0 46,4 49,4 44,9 52,9 50,8 47,6
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Частість епілептичних припадків не впливає на рівень показника якості життя. Н1: Має місце тенденція до зниження рівня показника якості життя з ростом частоти епілептичних припадків. Внесемо дані в пакет STATISTICA 6.0 позначивши змінні ЯЖ і Част відповідно. У модулі Nonparametrics вибираємо субмодуль Cjmparing multiply independent samples і вказуємо досліджувану та групуючи змінні. Результат порівняння показано на рис. 24 та 25.
Рис. 24
Рис. 25
91
Статистика Краскела-Уоллеса H 17,68 має рівень значущості p 0,0001 , що свідчить про істотну відмінність між рівнями досліджуваної ознаки в кожній з груп. Наявність тенденції до зниження рівня з ростом частоти припадків підтверджується медіанним тестом
2
8,36, p 0,015 (рис. 25), яким порівнюється розбиття кожної з груп медіаною об’єдн-
аної вибірки. Візуально тенденція зниження відслідковується на графіку (рис. 26.)
Рис. 26 Отже, нульова гіпотеза повинна бути відхилена, приймаємо гіпотезу H1 .
Критерій тенденцій Джонкхієра Критерій призначений для перевірки наявності тенденції збільшення рівня досліджуваної ознаки при переході від вибірки до вибірки при монотонній зміні змушуючого фактора. Статистичні гіпотези формулюються так. Н0: Рівні досліджуваної ознаки у всіх вибірках статистично не відрізняються один від одного. Н1: Рівні досліджуваної ознаки у вибірках зростають при монотонній зміні змушуючого фактора.
92
Нехай xiu , i 1..nu , u 1..k результат і-го спостереження при и-му значенні змушуючого фактора. Статистика J Джонкхієра обчислюється за формулою
0, x y , J xiu , x jv , де x, y 1 2 , x y, 1 u v k i 1.. nu 1, x y. j 1..n v Критерій має правосторонню критичну область. Для невеликих рівних вибірок і невеликого k критичні значення статистики Джонкхієра наведено в таблиці 11 додатка. Для великих вибірок статистика має розподіл, близький до
1 2 k 2 нормального з математичним сподіванням MJ N nu і дисперсією 4 u 1 DJ
k k 1 2 2 N 2 N 3 n 2 n 3 , де u u N nu . 72 u 1 u 1
Приклад 34. Рівень емпатії у 30 опитаних жінок, що перебувають у шлюбі, подано в таблиці. Чи можна стверджувати, що рівень зростає із збільшенням кількості дітей у сім’ї? Немає дітей Одна дитина Двоє дітей
50 60 57
49 55 45
40 49 45
42 51 56
43 52 59
55 49 51
54 46 54
54 54 57
42 63
67
59
54
57
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Рівень емпатії не залежить від кількості дітей у сім’ї. Н1: Має місце тенденція до зростання рівня емпатії зі збільшенням кількості дітей. Щоб обчислити статистику Джонкхієра, для елементів кожного рядка, крім останнього обчислимо суму кількості елементів наступних рядків, що перевищують даний елемент, і півкількості елементів, що йому дорівнюють. Немає дітей Одна дитина Двоє дітей
50 16 60 2 57
49 17 55 8 45
40 21 49 11 45
42 21 51 10,5 56
43 21 52 10 59
55 9,5 49 11 51
54 11,5 46 11 54
54 11,5 54 9 57
42 21
63
67
59
54
57
Просумувавши ці числа, отримаємо статистику Джонкхієра
J 16 17 21 21 21 9,5 11,5 11,5 21 2 8 11 10,5 10 11 11 9 222 . Для даного експерименту MJ 146,5, DJ 678,9 . Тому критичні значення статистики Джонкхієра, обчислені на підставі нормального розподілу з цими параметрами, відповідно
93
дорівнюють J 0, 05 189 і
J 0, 01 207 . Оскільки емпіричне значення критерію потрапляє в
критичну область, то маємо всі підстави відхилити нульову і прийняти альтернативну гіпотезу.
Критерій Фрідмана Критерій Фрідмана дозволяє перевірити гіпотезу про відсутність відмінності в ріні досліджуваної ознаки для трьох і більше зв’язаних вибірок (тестування однієї групи в різних умовах змушуючого фактора). Альтернативною виступає гіпотеза про наявність такої відмінності. Статистика Фрідмана обчислюється за формулою k 12 K T j2 3nk 1 , nk k 1 j 1
де п — кількість об’єктів у групі, k — кількість замірів, що відповідають різним значенням змушуючого фактора, T j — сума рангів для j -го заміру, отриманих ранжуванням замірів окремо для кожного досліджуваного об’єкта. Критерій має правосторонню критичну область. Для невеликих вибірок і невеликого k=3 та k=4 критичні значення статистики Фрідмана наведено в таблиці 12 додатка. Для великих вибірок статистика має розподіл, близький до 2 з k 1 ступенем вільності. Заміри i та j можна вважати попарно різними на спільному рівні значущості , якщо
Ti T j Z / 2 nk k 1 / 6 , де
2 і Z / 2 — квантиль нормального розподілу рівня 1 . k k 1 2
У пакеті Statistica 6.0 критерій Фрідмана реалізовано у субмодулі Comparing multiple dep. samples (variables) модуля Nonparametrics. Приклад 35. З групою з семи учнів протягом двох місяців проводився тренінг, спрямований на зниження їх агресивності. Заміри індексів ворожості (Iv) та агресивності (Ia) за методикою Басса-Даркі у цій групі проведені перед початком тренінгу, після його завершен-
94
ня та через півроку після тренінгу подано в таблиці. Чи можна стверджувати, що тренінг виявився ефективним?
Учень Б-н Наталка Г-к Тарас Д-ц Микола Л-о Марта С-а Оксана С-л Юлія Ш-о Юлія
20.02 11 12 13 10 6 9 10
Iv 8.05 6 5 7 4 4 6 4
30.10 5 11 5 15 6 5 7
20.02 20 24 21 12 9 12 14
Ia 8.05 11 12 18 7 8 7 9
30.10 19 14 20 13 6 8 11
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Рівні індексу з часом статистично не змінилися. Н1: Відмінності різних замірів рівнів індексів істотні. Перевірку гіпотез для індексу ворожості проведемо вручну. Подальші дослідження здійснимо з використанням пакету Statistica 6.0. Для знаходження статистики Фрідмана проранжуємо окремо для кожного учня показники індексу ворожості. Учень Б-н Наталка Г-к Тарас Д-ц Микола Л-о Марта С-а Оксана С-л Юлія Ш-о Юлія Суми рангів
20.02 11 3 12 3 13 3 10 2 6 2,5 9 3 10 3 19,5
Iv 8.05 6 2 5 1 7 2 4 1 4 1 6 2 4 1 10
30.10 5 1 11 2 5 1 15 3 6 2,5 5 1 7 2 12,5
Емпіричне значення статистики Фрідмана K
12 19,52 10 2 12,52 3 7 4 6,929 . 7 3 4
Критичні значення статистики Фрідмана для n 7, k 3 дорівнюють K 0,052 6 , K 0, 027 7,143 . Оскільки 6,929 K 0, 05 , то на цьому рівні значущості нульову гіпотезу можемо
відхилити. Відмінність між замірами можна вважати істотною на рівні значущості 0,05 , якщо модуль різниці рангових сум перевищує число Z / 2 nk k 1 / 6 1,96 14 7,3 .
95
У нашому випадку T1 T2 9,5, T1 T3 7, T3 T2 2,5 , тобто після тренінгу відбувся достовірний зсув рівня індексу ворожості, який з часом не змінився. Результати перевірки відмінностей індексу агресивності в пакеті Statistica 6.0 наведені на рис. 27. Як бачимо рівень значущості емпіричного значення статистики дорівнює 0,0058 і є істотно меншим, ніж навіть 0,01. Отже, рівні замірів індексу агресивності істотно відрізня-
Рис. 27 ються. Далі T1 T2 12 , T1 T3 6, T3 T2 6 . Тобто істотними є відмінності між рівнями індексу агресивності до і відразу після тренінгу. Однак з часом ці відмінності нівелюються. Як бачимо, в цілому тренінг можна вважати ефективним.
Критерій тенденцій Пейджа Критерій призначений для встановлення тенденції зміни рівня досліджуваної ознаки у зв’язаних вибірках при монотонній зміні вимушуючого фактора. Нульова гіпотеза стверджує, що рівень досліджуваної ознаки не змінюється при зміні вимушуючого фактора; альтернативною виступає гіпотеза про наявність тенденції зміни досліджуваного рівня при монотонній зміні вимушуючого фактора. Як і в критерії Фрідмана показники ранжуються для кожного досліджуваного об’єкта. Статистика Пейджа обчислюється за формулою k
L jT j , j 1
де j — номер вибірки (вибірки нумеруються за монотонною зміною вимушуючого фактора), а T j — сума рангів її елементів.
96
Критична область — правостороння. Критичні значення критерію Пейджа для рівнів значущості 0,05 та 0,01 (кількість елементів у вибірці
2 n 12, кількість значень фактора 3 k 6 ) наведено в таблиці 13 додатка. Для визначення критичних точок для великих значень k i n використовують статистику 2
nk k 1 L 4 , L* 3 k k nk 1 12 яка має близький до стандартного нормального розподіл, якщо справджується нульова гіпотеза. Приклад 36. Шести студентам-психологам пропонували розв’язати чотири анаграми — терміни. Час їх розв’язання кожним студентом наведено в таблиці. Чи можна стверджувати, що з ростом довжини анаграми зростає час, затрачений на її розв’язання? Студент Ірина Оксана Юрій Олена Михайло Марія
ГАНР 2,4 3,7 2,6 2,7 4,2 5,2
АТСТЬ 11,0 12,9 5,3 6,3 3,0 22,3
ЯЛЕПАД 192,8 109,2 201,1 152,4 167,4 187,5
ПЕРТАРМА 262,4 214,7 197,3 187,2 208,5 240,4
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Тривалість розв’язання анаграм статистично не відрізняється. Н1: Тривалість розв’язання анаграм достовірно зростає з ростом її довжини. Для знаходження статистики Пейджа проранжуємо окремо для кожного учня показники часу розв’язання анаграм. Студент Ірина Оксана Юрій Олена Олег Марія Суми рангів
ГАНР 2,4 1 3,7 1 2,6 1 2,7 1 4,2 2 5,2 1 7
АТСТЬ 11,0 2 12,9 2 5,3 2 6,3 3 3,0 1 22,3 2 12
ЯЛЕПАД 192,8 3 109,2 3 201,1 4 152,4 3 267,4 3 187,5 3 19
ПЕРТАРМА 262,4 4 214,7 4 197,3 3 187,2 4 508,5 4 340,4 4 23
Статистика Пейджа дорівнює L 1 7 2 12 3 19 4 23 180 .
Критичні значення статистики для n 6 , k 4 дорівнюють L0,05 163, L0, 01 167 . Тому нульова гіпотеза відхиляється. Приймається альтернативна гіпотеза.
97
Однофакторний дисперсійний аналіз Якщо результати спостережень можна подати у вигляді моделі
xij a j е ij , де xij — і-те спостереження 1 i n j в j-ій групі (1 j k ), n j — кількість споk
стережень в j-ій групі,
n j N , k — кількість груп, що відповідають різним j 1
значенням вимушуючого фактора, a j — значення в j-ій групі, яке характеризує вплив вимушуючого фактора, а е ij xij a j — незалежні і мають близький до нормального розподіл з математичним сподіванням 0 і дисперсією 2 , то для перевірки гіпотези про відсутність впливу вимушуючого фактора на рівень досліджуваної ознаки можна застосувати однофакторний дисперсійний аналіз. Альтернативною виступає гіпотеза про наявність такого впливу. Суть методу полягає в порівнянні двох оцінок цієї дисперсії, одна з яких отримана у припущенні, що всі a j статистично не відрізняються одне від одного (виконується нульова гіпотеза). nj
Оскільки
xij x j
2
2
2
i 1
xj 1 nj
nj
xij , де випадкова величина i 1
2
має розподіл 2 з n j 1 ступенем вільності, а сума k таких незалежних величин k
nj
x
x j має розподіл 2 2 з n1 1 n2 1 nk 1 N k ступенями 2
ij
j 1 i 1
вільності, то оцінкою дисперсії 2 може служити величина n
1 k j xij x j 2 , N k j 1 i1 2 вг
яку називають внутрішьогруповою дисперсією. Зауважимо, що ця оцінка отримана незалежно від виконання чи невиконання нульової гіпотези. Якщо припустити, що всі a j дорівнюють одне одному (виконується нульова
гіпотеза), 98
то
для
оцінки
2
можна
скористатися
величиною
k
x j x n j j 1 2
n
2
2
1 k j (тут x xij , а випадкова величина 2 має розподіл N j 1 i1
2 з k 1 ступенем вільності). Тоді оцінкою дисперсії 2 може служити величина 2 мг
1 k x j x 2 n j , k 1 j 1
яку називають міжгруповою дисперсією. Ця величина істотно залежить від виконання нульової гіпотези і буде тим більшою чим більше відрізняються між собою a j (зрозуміло, що оцінкою a j в наших припущеннях виступають x j ). Оскільки обидві оцінки статистично незалежні, то при виконанні нульової гіпотези статистика 2 мг F 2 вг
матиме розподіл Фішера-Снедекора з k 1, N k ступенями вільності. Таким чином
нульова гіпотеза прийматиметься на рівні значущості
при
Fe F , k 1, N k і відхилятиметься у протилежному випадку. Якщо нульова гіпотеза відхиляється, то для порівняння середніх при різних значеннях вимушуючого фактора можна скористатись статистикою Шеффе
TSh
xl x m
.
1 2 1 мг n n l m
Її критичне значення на рівні значущості може бути обчислене за формулою
TSh кр
k 1F , k 1, N k ,
де F , k 1, N k — критичне значення статистики Фішера з k 1, N k ступенями вільності. У пакеті Statistica 6.0 однофакторний дисперсійний аналіз реалізовано у субмодулі Breakdown & one-way ANOVA модуля Basic Statistics and Tables.
99
Приклад 37. Застосовуючи однофакторний дисперсійний аналіз перевірити залежність інтегрального показника якості життя хворих епілепсією від частоти припадків за даними прикладу 33. Розв’язання: Сформулюємо статистичні гіпотези. Н0: Частість епілептичних припадків не впливає на рівень показника якості життя. Н1: Має місце тенденція до зниження рівня показника якості життя з ростом частоти епілептичних припадків. Скористаємось даними прикладу 33, внесеними у пакет Statistica 6.0. Перевірка показує, що розподіл змінної ЯЖ статистично не відрізняється від нормального ( p 0,37 ). Отже, є підстави для застосування однофакторного дисперсійного аналізу. У модулі Basic Statistics and Tables вибираємо субмодуль Breakdown & one-way ANOVA. В якості залежної вибираємо змінну ЯЖ, групуючої — Част. Натискаємо кнопку Codes for grouping variables і вибираємо всі наявні коди (All). Натисканням Ok переходимо до наступного субмодуля. Далі на закладці ANOVA & tests натискаємо кнопку Analysis of Variance. Результати аналізу показано на рис. 28. Як бачимо міжгрупова дисперсія (MS Effect) дорівнює 1959,264, внутрішньогрупова (MS Error) — 183,197. Емпіричне значення статистики Фішера дорівнює 10,7, що відповідає рівню значущості 0,000063. Це дає підстави відхилити нульову гіпотезу.
Рис. 28 Далі для запуску тесту Шефе на закладці Post-hoc натискаємо кнопку Scheffe test. Результати тесту показано на рис. 29. Як бачимо середнє значення інтегрального показника якості життя у хворих з рідкими припадками істотно вищий, ніж у хворих з частими і дуже частими припадками ( р = 0,0002
100
Рис. 29 та р = 0,0007). Однак у хворих з дуже частими припадками він статистично такий же, як і у хворих з частими припадками ( р = 0,991).
Перевірка наявності зв’язку між двома ознаками У психолого-педагогічних експериментах досліджувані об’єкти, як правило, характеризуються багатьма ознаками виміряними в різних шкалах, і для дослідника важливо встановити, чи пов’язані між собою ці ознаки, тобто чи можна за рівнем вираженості одних ознак судити про рівень вираженості інших. Методи виявлення та оцінки залежності між досліджуваними ознаками істотно залежать від властивостей шкал, у яких виміряні ці ознаки. Так для перевірки статистичної залежності величин, виміряних у номінативних шкалах, використовують таблиці спряженості та критерій Фішера-Пірсона 2 . Для величин, виміряних у порядкових шкалах, обчислюють коефіцієнт рангової кореляції, а для величин, що виміряні в інтервальній шкалі або в шкалі рівних відношень, — коефіцієнт лінійної кореляції за Пірсоном. Зауважимо, що статистична відмінність від нуля коефіцієнта кореляції між ознаками свідчить про залежність між ними. Однак у багатьох випадках рівність коефіцієнта кореляції нулю ще не означає статистичну незалежність відповідних ознак.
101
Зв'язок ознак, виміряних у номінативних шкалах Нехай одна з ознак A має r градацій номінативної шкали, які позначимо
A1 , A2 ,, Ar відповідно, а ознака B має s градацій номінативної шкали, які позначимо B1 , B 2 , , B s . Таблицю
B1
B2
… Bj
… Bs
A1
n11
n12 … n1 j
… n1s
A2
n 21
n 22 … n2 j … n 2 s
… …
…
… …
… …
Ai
ni 2 … nij
… nis
… …
…
… …
… …
Ar
n r 2 … nrj
… n rs
ni1
n r1
,
де nij — частота появи пари Ai , B j в серії спостережень, називають таблицею спряженості. Якщо досліджувані ознаки незалежні, то незалежними мають бути і події
A Ai та B B j , тобто
P A Ai B B j P A Ai P B B j . Введемо позначення s
r
r
s
ni nij , n j nij , n nij . j 1
i 1
i 1 j 1
Оскільки при достатньо великих п за законом Бернуллі
n j n
P B B j , а
nij n
P A Ai B B j , то незалежність ознак A і B , забез-
печуватиме виконання рівностей
nij
102
ni P A Ai , n
ni n j n
i 1..r ,
j 1..s
Величини
ni n j n
називатимемо сподіваними (або теоретичними) частота-
ми розподілу випадкового вектора A, B . Перевірку узгодженості емпіричного розподілу з теоретичним здійснимо на основі критерію 2 . Якщо виконується нульова гіпотеза (ознаки A і B — незалежні), то величина
n n nij i j r s n 2 ni n j i 1 j 1
2
r s nij2 n 1 n n i 1 j 1 i j
n матиме розподіл 2 з r 1s 1 ступенями вільності. Великі значення 2 у конкретному експерименті свідчитимуть про залежність між ознаками A і B . Для оцінки тісноти зв’язку між ознаками Карл Пірсон запропонував величину
2 P , n2 яку називають коефіцієнтом спряженості Пірсона. Очевидно, що 0 P 1 , причому для незалежних ознак P 0 . Однак P 1 , коли таблиця спряженості діагональна (абсолютна залежність ознак A і B ). Позбавлений цього недоліку запропонований Крамером коефіцієнт
2 C . n min r 1, s 1 *
Приклад 38 . Розподіл 1725 школярів, класифікованих за їх розумовими здібностями (А — розумово відсталий або повільний і тупий; Б — тупий; В — повільний але розумний; Г — достатньо розумний; Д — явно здібний; Е — дуже здібний) та якістю одягу (одягнений: а — дуже добре; б — добре; в — задовільно; г — погано), наведено в таблиці. Чи існує зв'язок між цими характеристиками?
*
Дані взято з Gilby W.H., Biometrika, 8, 94.
103
Здібності Як одягається а б в г
А
Б
В
Г
Д
Е
33 41 39 17
48 100 58 13
113 202 70 22
209 255 61 10
194 138 33 10
39 15 4 1
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Ознаки незалежні одна з одною. Н1: Ознаки пов’язані між собою. Обчислення статистики
2 проведемо в пакеті Excel. Для цього занесемо дані з умо-
ви задачі у блок кліток A1:G5. У блоці B6:G6 обчислимо суми частот по стовпчиках, а у блоці H2:H6 — по рядках. Отримані суми будуть частотами n j , ni та n відповідно. Щоб обчислити величини
nij
2
ni n j
, у клітку В7 занесемо формулу =B2^2/B$6/$H2 та скопіюємо її на
блок B2:G10. Значення статистики
2 знайдемо у клітинці Н11 записавши в ній формулу
=(SUM(B7:G10)-1)*H6 . У клітинці Н12 знайдемо рівень її значущості, записавши формулу =CHIDIST(H11;15). У клітинці D12 за формулою =SQRT(H11/(H6+H11)) знайдемо коефіцієнт Р, а в клітинці F12 — коефіцієнт С за формулою =SQRT(H11/H6/3). На рис.30 наведено вигляд аркуша MS Excel.
Рис. 30
104
Як бачимо, емпіричне значення статистики 2 174,8 і має рівень значущості p 2,62 10 29 0,01 . Це дає підстави відхилити нульову гіпотезу і стверджувати, що досліджувані ознаки залежні. Обчислені коефіцієнти Р і С теж будуть статистично відмінними від нуля. Їх величина вказує на не дуже тісний зв'язок між досліджуваними ознаками, однак дати імовірнісну інтерпретацію цих коефіцієнтів важко.
Якщо вхідні дані задані у вигляді таблиці спостережень, то побудувати таблицю спряження та обчислити емпіричні значення статистик і їх рівні значущості у пакеті Statistica 6.0 можна за допомогою субмодуля Tables and banners модуля Basic Statistics/Tables. Вибрати види таблиць спряження (абсолютні чи відносні частоти) та необхідні статистики можна на закладці Option. Для виводу всіх вибраних даних слід натиснути кнопку Detailed two-way tables. Зв'язок ознак, виміряних у порядкових шкалах Якщо ознаки Х та Y виміряні у порядкових шкалах, то для дослідника більш суттєвими є не значення xi , y i , що характеризують і-ий об’єкт i 1..n , а пари ri , si , де ri — ранг xi серед чисел x1 , x2 , , xn , а si — ранг yi серед чисел y1 , y 2 , , y n . Якщо випадкові величини Х та Y статистично незалежні, то для будь-якої послідовності чисел r1 , r2 , , rn всі n! перестановок чисел 1, 2,, n , які відіграватимуть роль рангів s1 , s 2 , , sn є рівноймовірними. У протилежному випадку послідовність r1 , r2 , , rn буде визначати послідовність s1 , s 2 , , sn тим повніше, чим тісніший зв'язок між величинами Х та Y. Статистика n
2
S ri si i 1
відображає близькість рядів r1 , r2 , , rn і s1 , s 2 , , sn . Вона набуває найменшого значення S 0 лише коли всі si ri (абсолютний прямий зв’язок) і найбільшо-
n3 n го — S , коли si n 1 ri (абсолютний зворотній зв'язок). Якщо дослі3 105
джувані ознаки незалежні, то математичне сподівання статистики S дорівнює
n3 n MS . 6 Для зручності імовірнісної інтерпретації замість статистики S розглядають статистику
1
6S , n n 3
яку називають ранговим коефіцієнтом кореляції Спірмена. Ця величина задовольняє нерівність 1 1 , причому крайні значення 1 досягаються лише у випадку абсолютного прямого чи зворотного зв’язку між рангами. Для незалежних ознак розподілена на відрізку 1; 1 , а її значення концентруються в
1 околі нуля тим щільніше, чим більше п D . Критичні значення статиn 1 стики на рінях значущості 0,05 та 0,01 для малих п наведені в таблиці 14 додатка. Для великих п величина
n2 1
2
має розподіл Стьюдента з
n 2 ступенями вільності. Емпіричні значення рангового коефіцієнта кореляції Спірмена, що перевищують за модулем 0, 05 (а тим більше 0, 01 ) є підставою для відхилення гіпотези про незалежність ознак Х та Y і прийняття альтернативної гіпотези. Якщо при ранжуванні ознак Х та Y зустрічаються однакові ранги, то ранговий коефіцієнт кореляції Спірмена обчислюють за відкоригованою формулою
n3 n S TX TY 6 . n3 n n 3 n 2TX 2TY 6 6 Тут TX , TY — поправки на однакові ранги для кожної з вибірок, які обчислюють за формулою 106
1 m 3 T ni ni , 12 i 1 де т — кількість груп з однаковими рангами, а ni — кількість однакових рангів в і-й групі. В пакеті Statistica 6.0 знаходження рангового коефіцієнта кореляції Спірмена реалізовано у субмодулі Correlations модуля Nonparametrics. Приклад 39. Трьом групам — вчителі (7 чоловік), учні 8 класу (30 чоловік) та учні 11 класу (17 чоловік) — пропонували оцінити важливість таких рис ідеального вчителя: І – повага до учнів, ІІ –вимогливість, ІІІ – комунікабельність, ІV – прямолінійність, V - терпеливість, VІ – справедливість, VII – самокритичність, VIII - добре знання свого предмета, ІХ – авторитаризм, Х – чесність, ХІ – тактовність, ХІІ - почуття гумору, ХІІІ – консервативність, ХІV - обов'язковість, XV - гуманність. Усереднені по групах дані проранжували. Результати ранжування наведено в таблиці. Риси
Учителі
І ІІ ІІІ ІV V VІ VII VIII ІХ Х ХІ ХІІ ХІІІ ХІV XV
5 4 10 13 7 2 11 1 14 3 6 12 15 9 8
Учні 8 класу 1 3 6 10 7 4 14 2 11 5 9 8 15 12 13
Учні 11 класу 2 8 6 13 3 4 9 1 12 7 11 5 15 14 10
Чи можна стверджувати, що рангові послідовності для кожної з груп взаємопов’язані? Розв’язання: Сформулюємо статистичні гіпотези. Н0: Рангові послідовності кожної з груп попарно незалежні. Н1: Між парами рангових послідовностей існує кореляційна залежність. Внесемо дані в пакет Statistica 6.0. У субмодулі Correlations(Spearman, Kendall tau, gamma) модуля Nonparametrics вказуємо, що треба видати детальний звіт (Detailed report у вікні Compute), та вибираємо всі змінні в обох списках. Результати обчислень парних рангових коефіцієнтів Спірмена наведено на рис.31.
107
Як бачимо, коефіцієнти рангової кореляції між усіма трьома парами ранжувань статистично відмінні від нуля. Це дає підстави відхилити нульову гіпотезу. Оскільки всі три кое-
Рис. 31 фіцієнти кореляції достатньо великі, можемо стверджувати, що уявлення про ідеального вчителя в усіх трьох групах узгоджуються. Приклад 40. За даними прикладу 38 перевірити, чи існує зв'язок між заданими характеристиками, вважаючи, що елементи шкал вимірювання є впорядкованими. Розв’язання: Сформулюємо статистичні гіпотези. Н0: Ознаки незалежні одна з одною. Н1: Ознаки пов’язані між собою. Замінивши кожен клас шкали таблиці спряження сукупним рангом об’єктів, що потрапили до цього класу, (з 1 до 130 місця — ранг 65,5, з 131 до 349 — 240 і т.д. ), отримаємо таблицю Здібності 65,5 240 Як одягається 318,5 33 48 1012 41 100 1520 39 58 1689 17 13 130 219
108
553
1024 1479 1696
113 202 70 22 407
209 255 61 10 535
194 138 33 10 375
39 15 4 1 59
636 751 265 73 1725
В пакеті MS Excel обчислимо величини, необхідні для знаходження рангового коефіцієнта кореляції Спірмена та сам коефіцієнт. 65,5 33 41 39 17
318,5 1012 1520 1689 Сума
130 183073 64009 895862 2115570 2635752 2112297 3,7E+07 8,3E+07 4,5E+07
240 48 100 58 13
553 113 202 70 22
219
1024 209 255 61 10
407
1479 194 138 33 10
535
1696 39 15 4 1
375
875270 5618228 1,3E+07 4394500 6162,25 595984 1638400 2099601 295788 6E+07 9,5E+07 2,7E+07
Сума
59
636
21438235
751
35297000
265 73
1550780 32412
1725 3
17110 (n -n)/6= TX=
855491900 58318427
TY= 23849000,5 54990,3 497730 1346760 1897506 210681 144 218089 467856 S= 987492829 935089 246016 1681 30976Чисельник -214168357 1290496 442225 44100 49Знаменник 772555887 6213898 1E+08 2,6E+08 7,4E+07 rho= -0,2772205 4,3E+07 36720 3E+07 7017840 t= -11,976563 6,5E+07 1,5E+07 55473 123904 p= 8,3081E-32 2,8E+07 4422250 441000 49
Нижче наведено формули, за якими здійснювались обчислення на цьому аркуші. 65,5 33 41 39 17
318,5 1012 1520 1689 Сума 130
240 48 100 58 13
553 113 202 70 22
1024 209 255 61 10
1479 194 138 33 10
1696 39 15 4 1
219
407
535
375
59
Сума 636
=(H2^3-H2)/12
751
=(H3^3-H3)/12
265 73
=(H4^3-H4)/12 =(H5^3-H5)/12
1725 3
(n -n)/6= =(H6^3-H6)/6 =(B6^3-B6)/12 =(C6^3-C6)/12 =(D6^3-D6)/12 =(E6^3-E6)/12 =(F6^3-F6)/12 =(G6^3-G6)/12 TX= =SUM(I2:I5) =(B$1-$A2)^2 =(C$1-$A2)^2 =(D$1-$A2)^2 =(E$1-$A2)^2 =(F$1-$A2)^2 =(G$1-$A2)^2 TY= =SUM(B7:G7) =(B$1-$A3)^2 =(C$1-$A3)^2 =(D$1-$A3)^2 =(E$1-$A3)^2 =(F$1-$A3)^2 =(G$1-$A3)^2 S= =SUM(B13:G16) =(B$1-$A4)^2 =(C$1-$A4)^2 =(D$1-$A4)^2 =(E$1-$A4)^2 =(F$1-$A4)^2 =(G$1-$A4)^2 Чисельник =I7-I8-I9-I10 =(B$1-$A5)^2 =(C$1-$A5)^2 =(D$1-$A5)^2 =(E$1-$A5)^2 =(F$1-$A5)^2 =(G$1-$A5)^2 Знаменник =SQRT((I7-2*I8)*(I7-2*I9)) =B2*B9 =C2*C9 =D2*D9 =E2*E9 =F2*F9 =G2*G9 rho= =I11/I12 =B3*B10 =C3*C10=D3*D10=E3*E10=F3*F10 =G3*G10 t= =I13*SQRT((H6-2)/(1-I13^2)) =B4*B11 =C4*C11=D4*D11=E4*E11=F4*F11 =G4*G11 p= =TDIST(ABS(I14);H6-2;2) =B5*B12 =C5*C12=D5*D12=E5*E12=F5*F12 =G5*G12
Як бачимо, рівень значущості рангового коефіцієнта кореляції Спірмена p 8,3 10 38 істотно менший, ніж 0,01. Це дає підстави відхилити нульову гіпотезу. Оскільки 0,277 , то можемо стверджувати, що між недбалістю в одязі і розумовими здібностями простежується не дуже тісний зворотний кореляційний зв’язок.
109
Зв'язок ознак, виміряних в інтервальних шкалах Якщо ознаки Х та Y виміряні у інтервальних шкалах, то для перевірки залежності між ними потрібно оцінити коефіцієнт лінійної кореляції між цими ознаками. Відмінність від нуля коефіцієнта лінійної кореляції свідчитиме про наявність зв’язку між досліджуваними ознаками. Оцінкою коефіцієнта лінійної кореляції за вибіркою xi , yi i 1..n служить вибірковий парний коефіцієнт кореляції Пірсона n
x r
i
x yi y
i 1
n
x i 1
2
i
x
,
n
y
2
i
y
i 1
де п — кількість спостережень, x, y — вибіркові середні вибірок xi i 1..n та
yi i 1..n відповідно. Якщо ознаки Х та Y розподілені нормально, то величина r не тільки дає відповідь на питання про залежність досліджуваних ознак, але й вимірює тісноту їх зв’язку. Тому в цьому випадку доводиться поряд з гіпотезою H 0 : r 0 часто доводиться перевіряти гіпотезу H 0 : r r1 . Статистика
1 1 r Z ln , 2 1 r яку називають перетворенням Фішера від r, дозволяє робити ці перевірки незалежно від величини r, оскільки її розподіл апроксимується нормальним розподілом з дисперсією DZ
1 , залежною лише від об’єму вибірки. n3
Таким чином, якщо
Z n3
t ,n1 , де t ,n1 — квантиль рівня розподілу
Стьюдента з n 1 ступенем вільності, то на рівні значущості гіпотезу про незалежність ознак відхиляємо і приймаємо альтернативну гіпотезу. Два коефіцієнти парних кореляцій r і r1 за вибіркою об’ємом n вважатимемо статистично
110
відмінними на рівні значущості , якщо їх перетворення Фішера задовольняють нерівність Z Z1 t ,n1
2 . n3
У пакеті Statistica 6.0 реалізовано у субмодулі Сorrelation matrices модуля Basic Statistics/Tables. *
Приклад 41 . Кожному з 17 досліджуваних по черзі пропонувались світловий і звуковий сигнали. Інтенсивність сигналів не змінювалась протягом всього експерименту. Час (у мілісекундах) між сигналом і реакцією досліджуваного наведено в таблиці. Чи можна стверджувати, що час реакції на звук і на світло незалежні. № досл. Звук Світло
1 223 181
2 104 191
3 209 173
4 183 151
5 180 168
6 168 176
7 215 163
8 172 152
9 200 155
10 191 156
11 197 178
12 183 160
13 174 164
14 176 169
15 155 155
16 115 122
17 163 144
Розв’язання: Сформулюємо статистичні гіпотези. Н0: Ознаки незалежні одна з одною. Н1: Ознаки пов’язані між собою. Внесемо дані в пакет Statistica 6.0. В модулі Basic Statistics/Tables виберемо субмодуль Сorrelation matrices. У першому списку змінних вказуємо обидві змінні. На закладці Options вибираємо варіант Display r, p-levels and N’s, що дасть змогу обчислити не тільки матрицю парних кореляцій, але й рівень значущості кожного з коефіцієнтів, та натискаємо кнопку Summary. Результат обчислень показано на рис. 32.
Рис. 32
*
Дані взято з книги Тюрин Ю.Н., Макаров А.А. Статистический анализ данных на компьютере.
111
Як бачимо парний коефіцієнт кореляції дорівнює 0,242 і не є статистично значимим. Тому приймаємо нульову гіпотезу: час реакції на звук і світло не залежать один від одного.
Задачі до розділу ІV. ІV.1. Перевірити на однорідність вибірку: а) 26, 22, 21, 20, 23, 13, 27, 22, 23, 22; б) 16, 16, 15, 20, 20, 18, 35, 17, 19, 38, 21, 18, 19, 17, 18. ІV.2. Розподіл якої з ознак у прикладі 20 статистично не відрізняється від рівномірного. ІV.3. Чи мають вибірки у задачах ІІІ.1, ІІІ.2, ІІІ.5 розподіл, який статично не відрізняється: а) від рівномірного; б) від нормального? ІV.4. На підставі 2 - критерію Пірсона перевірити узгодженість емпіричних розподілів у прикладі 24. ІV.5. У групі шкіл проводилось вивчення курсу хімії у 8 і 9 класах (339 учнів 8 класу та 604 учні 9 класу) за спеціальною методикою. Тричі протягом року проводились заміри навчальних досягнень учнів (нульовий — на початку року, контрольний — на початку ІІ півріччя та підсумковий — у кінці начального року). Аналогічні заміри проводились у контрольній групі (559 учнів 8 класу та 598 учнів 9 класу, які навчались за стандартною методикою). Розподіл учнів за рівнями їх досягнень для експериментальних і контрольних груп наведено в таблиці. Порівняти розподіли рівнів навчальних досягнень учнів в експериментальних та контрольних групах на кожному замірі. Порівняти розпаділи на нульовому і підсумковому замірах у кожній з чотирьох груп. Що можна сказати про ефективність досліджуваної методики? Рівень Високий Достатній Середній Початковий Високий Достатній Середній Початковий Замір 8 клас, експериментальна група 9 клас, експериментальна група нульовий 64 123 103 49 113 208 192 91 контрольний 105 134 79 21 160 234 204 6 підсумковий 115 142 82 0 162 284 155 3 8 клас, контрольна група 9 клас, контрольна група нульовий 103 168 176 112 96 187 234 81 контрольний 112 158 172 117 53 203 288 54 підсумковий 97 145 189 128 61 202 290 45
112
ІV.6. Розподіли хворих на епілепсію чоловіків і жінок за частотою припадків наведено в таблиці. Чи можна стверджувати, що ці розподіли статистично не відрізняються. Рідкі
Часті
Дуже часті
Жінки
6
20
19
Чоловіки
18
24
13
ІV.7*. У дослідженні С.К. Скаковського (1990) вивчалася проблема психологічних бар'єрів при зверненні в службу знайомств у чоловіків і жінок. У експерименті брали участь 17 чоловіків і 23 жінки у віці від 17 до 45 років (середній вік 32,5 роки). Досліджувані повинні були відзначити на відрізку точку, що відповідає інтенсивності внутрішнього опору, що їм прийшлося перебороти, щоб звернутися в службу знайомств. Довжина відрізка, що відбиває максимально можливий опір, складала 100 мм. У таблиці наведені показники інтенсивності опору, виражені в міліметрах. Чи можна стверджувати, що чоловікам доводиться переборювати суб'єктивно більш потужний опір?
Чоловіки
Жінки
81
80
73
72
72
69
69
65
65
62
60
54
54
43
30
26
26
70
66
66
63
63
61
60
54
47
43
41
40
39
38
38
35
30
27
25
23
17
10
9
ІV.8. Дані про самооцінку учнів школи-інтернату (18 учнів) та звичайної школи (16 учнів) за 10 бальною шкалою наведені в таблиці. Вказати ознаки, для яких рівень показника учнів школи-інтернату істотно відрізняється від рівня показника учнів загальноосвітньої школи.
*
Дані взято з книги Сидоренко Е.В. Методы математической обработки в психологии. – СПб.: ООО
«Речь», 2000.
113
4 1 4 2 9 3 5 1 10 10 3 10 3 10 5 3 10 2 2 2 1 3 1 3 3 2 3 6 2 2 1 2 2 3
7 7 10 10 5 10 10 10 10 10 10 10 10 10 8 10 10 10 8 10 10 9 10 9 9 9 9 10 8 10 9 8 10 10
8 5 9 10 8 10 10 10 9 10 8 10 10 9 6 10 9 10 9 9 10 10 8 10 9 10 4 8 10 10 10 6 10 10
3 4 3 8 4 10 1 1 1 10 3 1 10 1 3 1 2 10 1 1 1 1 1 1 1 1 1 6 1 1 2 2 1 1
6 9 10 10 8 10 10 10 10 8 10 10 10 9 7 10 8 10 10 10 10 9 9 10 10 10 10 9 8 10 9 10 10 10
Школа
Впевненість у собі
6 8 10 10 9 10 10 10 7 10 10 7 7 4 6 10 7 10 10 10 9 10 10 10 10 9 9 10 10 10 8 7 9 10
Наскільки ви агресивні
9 9 10 10 9 10 10 9 10 7 8 10 10 5 10 10 10 10 10 10 10 10 10 10 10 9 10 10 10 10 10 9 10 10
Вміння робити власноруч
8 10 10 10 10 10 10 10 10 10 10 8 10 6 8 10 10 10 10 10 10 10 10 10 10 10 8 10 10 10 10 10 10 10
Авторитет серед ровесн.
Впевненість у собі
3 2 8 3 8 10 7 10 5 7 9 5 4 1 3 4 5 3 9 7 6 7 10 8 8 8 7 6 5 9 9 6 5 9
характер
6 2 5 2 7 3 6 10 7 9 7 8 4 5 7 5 6 2 6 5 5 6 10 5 3 6 1 7 2 8 8 2 6 10
розум
4 2 6 3 6 4 6 10 10 5 9 10 3 4 4 8 10 3 7 9 3 8 9 7 4 6 7 7 2 6 5 8 7 10
Наскільки ви агресивні
Вміння робити власноруч
4 4 7 4 5 4 7 10 3 9 10 10 4 5 4 6 3 4 5 4 3 3 10 6 6 4 8 10 5 8 4 6 8 9
Авторитет серед ровесн.
4 5 9 6 7 6 8 9 5 1 6 2 2 3 5 7 5 6 9 7 4 6 9 7 6 8 7 7 10 8 7 5 7 9
Бажане здоров’я
3 7 8 8 9 8 9 10 2 7 8 3 9 2 3 8 3 8 7 8 6 8 8 6 7 7 5 10 8 8 10 5 9 8
характер
Ст М Ст А Фед М Стр В Оп О Ол Н Ол М Мол Е Юр В Шим А Тац М Луч С Кор В Луч К Стец А Фед Мн Мір О Пр М Як М Пад Д Кл Ю Бур І Гадж Л Кам Н Біл О Кр Б Он Б Біц Р Біл І Стец Г Фед Мк Цим І Фр О Кар О
розум
Учень
здоров’я
Реальне
інт інт інт інт інт інт інт інт інт інт інт інт інт інт інт інт інт інт шк шк шк шк шк шк шк шк шк шк шк шк шк шк шк шк
ІV.9. За даними попередньої задачі порівняти різниці між бажаними та реальними показниками самооцінки учнів школи-інтернату та загальноосвітньої школи. ІV.10. За даними прикладу 30 перевірити відсутність зсуву в рівні кожної з заданих у таблиці ознак. ІV.11. За даними прикладу 31 перевірити відсутність зсуву в рівні кожної з заданих у таблиці ознак. 114
ІV.12*. У вибірці з 28 чоловіків — керівників підрозділів великих промислових підприємств Санкт-Петербурга перед початком курсу тренінгу партнерського спілкування проводилося обстеження за допомогою 16-факторного особистісного опитувальника Р. Б. Кеттелла. У таблиці наведені їх індивідуальні значення фактора N, що характеризує життєву досвідченість і проникливість. Дані подані в "сирих" балах і згруповані у чотири вікові групи. Чи можна стверджувати, що є певна тенденція зміни значень чинника N при переході від групи до групи? Група 1: Група 2: Група 3: Група 4: 26-31 рік 32-37 років 38-42 роки 46-52 роки 2 10 5 8 10 7 12
11 7 8 12 12 12 9
8 12 14 9 16 14 10
11 12 9 9 10 14 13
ІV.13. Результати опитування групи вчителів (248 чол.) за опитувальником творчої поведінки КАНЕ (Станіслав Попек, Люблін) та їх анкетні дані наведено в таблиці (освіта: w — вища, ss — середня спеціальна; стать: m — чоловік, w — жінка; робота за фахом: 1 — так, 0 — ні; місцевість: m — міська, s —сільська ). Зробити порівняльний аналіз показників шкал опитувальника (перші шість) за анкетними даними, шкали вік і стаж розбити на дві групи (до і
*
42 39 33
w w w
m m m
35 32 33
12 12 11
1 1 1
Місцевість
25 24 29
Робота за фахом
Творча спрямованість
22 22 16
Стаж
Спрямованість на відтворення
20 17 17
Вік
Евристична поведінка
16 14 15
Стать
Нононформізм
9 10 14
Освіта
Алгоритмічна поведінка
1 2 3
Конформізм
№ пп
після 35 років та до і більше 10 років відповідно.
s s s
Дані взято з книги Сидоренко Е.В. Методы математической обработки в психологии. – СПб.: ООО
«Речь», 2000.
115
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55
116
12 5 16 12 18 16 18 4 18 17 19 16 17 8 19 20 14 15 17 16 18 5 15 22 14 10 13 18 6 17 17 6 12 16 9 20 14 5 21 19 28 14 18 23 15 15 8 11 6 15 11 1
17 15 15 17 15 18 14 18 20 15 17 18 19 14 18 22 15 17 19 14 17 16 17 21 18 19 16 20 19 23 20 14 12 14 15 20 19 12 14 16 16 22 19 20 17 18 17 19 14 17 17 14
28 17 14 22 18 19 17 23 20 19 20 15 19 28 20 19 25 17 18 24 18 16 21 23 21 26 20 19 20 23 19 16 22 17 21 25 19 23 13 22 18 20 14 19 24 18 26 24 19 17 17 19
24 20 15 24 18 24 23 21 14 18 19 21 19 27 22 14 22 16 21 21 18 15 19 24 23 22 24 15 19 16 18 18 21 17 17 17 15 23 16 17 16 16 14 16 20 20 20 21 13 16 16 17
29 20 31 29 33 34 32 22 38 32 36 34 36 22 37 42 29 32 36 30 35 21 32 43 32 29 29 38 25 40 37 20 24 30 24 40 33 17 35 35 44 36 37 43 32 33 25 30 20 32 28 15
52 37 29 46 36 43 40 44 34 37 39 36 38 55 42 33 47 33 39 45 36 31 40 47 44 48 44 34 39 39 37 34 43 34 38 42 34 46 29 39 34 36 28 35 44 38 46 45 32 33 33 36
w w w w w ss w ss ss ss w ss w w ss ss ss ss ss w w w w w w w w ss w w ss w w w w ss w w w w w w w w w w w w w w w w
m m w w w w w w w w w w w w w w w w w m w m w w w m w w w w w w m w w w w w w w w w w w w w w w w w w w
47 31 35 28 46 35 28 32 34 36 35 35 31 34 46 52 32 36 23 61 43 57 36 47 59 38 45 40 53 50 53 55 27 38 38 37 44 37 37 37 41 49 36 42 30 45 44 29 41 36 34 43
21 12 15 7 23 14 4 20 15 17 15 15 12 14 17 31 13 17 4 40 24 34 16 23 37 14 24 21 31 31 36 36 3 16 16 17 21 20 17 17 22 26 15 23 10 23 24 9 23 14 14 20
0 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 0 0 1 1
s s s s s s s s s s s s s s s s s s s s s s s s s s s s s s s s m s s s m s s s s s s s s s s m s s s s
56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107
8 7 15 12 6 13 19 12 15 16 13 9 16 10 22 16 6 14 12 17 17 17 14 12 17 13 6 18 15 17 12 19 20 11 19 21 14 17 21 16 16 11 19 10 5 23 14 17 14 13 16 22
13 12 14 11 13 16 25 20 11 19 18 15 16 15 23 15 12 17 20 20 16 18 25 18 19 22 14 22 21 13 20 17 23 20 22 24 18 15 21 16 18 13 15 15 13 19 19 15 14 17 22 16
21 21 22 21 16 20 25 21 20 23 18 19 33 19 17 18 22 19 26 24 18 20 19 22 21 20 20 21 17 22 20 22 25 22 22 23 20 22 20 19 27 20 26 25 21 13 20 19 18 19 15 17
19 17 13 18 15 21 22 17 18 19 18 16 17 22 15 23 23 17 23 24 20 21 21 22 23 20 24 25 15 23 22 15 22 20 19 21 19 17 16 10 23 21 23 23 19 15 17 19 21 19 18 15
21 19 29 23 19 29 44 32 26 35 31 24 32 25 45 31 18 31 32 37 33 35 39 30 36 35 20 40 36 30 32 36 43 31 41 45 32 32 42 32 34 24 34 25 18 42 33 32 28 30 38 38
40 38 35 39 31 41 47 38 38 42 36 35 50 41 32 41 45 36 49 48 38 41 40 44 44 40 44 46 32 45 42 37 47 42 41 44 39 39 36 29 50 41 49 48 40 28 37 38 39 38 33 32
w s w w w ss ss w w w w ss w ss w w w w w w w ss w ss ss ss w w w ss w w w w w w w w ss w w w w w ss w w ss w w w w
w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w m w m w w w w w w m w w w w w w w w w w w w
35 25 45 27 30 40 27 39 37 35 33 48 33 29 58 35 36 33 40 37 33 40 36 47 31 33 31 49 40 30 59 47 50 33 60 55 61 53 57 25 24 30 34 44 25 43 38 46 30 44 24 48
15 6 23 7 10 19 7 19 15 15 12 26 14 8 40 16 15 13 17 18 12 12 18 29 12 14 16 21 23 9 35 25 23 15 40 35 44 27 44 5 16 8 14 21 5 24 19 27 8 24 3 28
1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1
s s s s s s s s s s s s s s s s s s s s m m m m m m m m m m m m m m m m s s s m m m m m m m m m s m m m
117
108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159
118
14 15 17 9 4 22 13 15 14 15 17 5 11 2 9 11 14 16 16 8 17 15 8 15 4 17 12 8 17 18 8 14 6 10 8 10 12 21 17 12 16 11 10 11 9 18 9 17 18 11 22 13
20 23 21 17 16 19 16 20 17 21 19 18 15 16 12 14 15 18 20 18 19 18 9 19 13 21 15 16 21 21 20 11 18 16 18 20 17 21 21 19 23 15 9 14 12 19 18 21 20 19 25 19
18 23 19 23 19 19 22 16 20 14 23 17 15 20 23 18 18 21 24 17 18 22 18 19 16 12 24 23 27 10 16 26 24 21 22 24 21 21 27 19 24 26 19 23 21 26 18 23 23 19 21 15
19 29 23 19 15 18 21 11 22 15 15 19 11 23 21 21 16 17 23 19 20 20 15 20 20 12 22 20 28 19 17 22 19 21 18 19 22 21 22 19 24 28 19 18 19 21 19 26 25 18 20 20
34 38 38 26 20 41 29 35 31 36 36 23 26 18 21 25 29 34 36 26 36 33 17 34 17 38 27 24 38 39 28 25 24 26 26 30 29 42 38 31 39 26 19 25 21 37 27 38 38 30 47 32
37 52 42 42 34 37 43 27 42 29 38 36 26 43 44 39 34 38 47 36 38 42 33 39 36 24 46 43 55 29 33 48 43 42 40 43 43 42 49 38 48 54 38 41 40 47 37 49 48 37 41 35
ss ss ss w w w w w w ss w w w w w w w w ss w w w w w w w w w w w w w w w w w w w w w w w w w w ss w w w w w w
w w w w w w w w w w w w w w w w w w w w w w w w w w m w w w w w w m w w w w w w w w m m m m m m m m m m
43 34 35 28 30 49 36 28 40 34 41 51 37 46 38 34 36 41 37 28 47 64 30 35 39 38 34 40 51 48 36 44 57 44 36 51 59 56 59 52 54 63 51 53 37 53 37 37 30 35 47 49
14 14 11 9 9 24 13 4 20 14 19 20 12 26 16 12 17 21 18 5 25 43 5 15 19 18 11 17 28 22 19 22 38 17 13 29 40 30 40 32 33 45 30 12 13 20 12 15 9 12 25 25
1 1 1 1 1 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
m m m m m m m m m m m m m m m m m m m m m m m m m m m m s s s s s s s s s s s s s s s s s s s s s s s s
160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211
18 17 21 9 12 16 17 13 13 16 23 12 20 21 15 10 9 16 15 18 9 7 14 11 9 25 21 16 20 5 15 14 8 12 15 20 12 8 16 12 20 6 12 9 16 5 10 20 9 15 16 11
22 16 18 14 19 21 20 19 17 23 24 22 18 23 16 16 19 15 15 18 15 19 14 24 16 22 19 17 15 13 20 20 11 15 17 22 18 19 14 18 21 18 10 17 17 16 18 20 17 17 20 13
21 23 21 23 22 18 23 20 23 20 22 21 19 20 19 21 22 19 19 21 23 25 23 29 15 21 21 14 22 22 17 20 16 22 23 26 20 18 22 23 16 15 19 18 18 25 27 26 18 17 20 22
14 22 22 23 24 20 19 15 22 19 18 23 17 16 17 17 18 19 22 18 21 19 20 24 17 20 20 11 23 16 14 20 18 25 18 25 19 16 21 17 14 17 22 15 14 17 25 24 16 15 18 20
40 33 39 23 31 37 37 32 30 39 47 34 38 44 31 26 28 31 30 36 24 26 28 35 25 47 40 33 35 18 35 34 19 27 32 42 30 27 30 30 41 24 22 26 33 21 28 40 26 32 36 24
35 45 43 46 46 38 42 35 45 39 40 44 36 36 36 38 40 38 41 39 44 44 43 53 32 41 41 25 45 38 31 40 34 47 41 51 39 34 43 40 30 32 41 33 32 42 52 50 34 32 38 42
w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w
m m w w w w w w w w w w w w m w w w w m w m w w w w w w w w w w w w w w w w w w w w w w w m m w m m m m
41 29 52 64 48 47 42 40 50 48 48 40 56 34 53 46 58 40 42 51 52 34 51 51 37 64 53 46 49 46 41 53 41 38 49 51 45 49 53 43 50 47 46 48 34 48 48 35 34 44 26 44
14 3 33 46 24 24 25 20 27 19 22 18 38 11 34 13 40 19 20 26 30 10 29 32 17 45 32 13 29 25 17 34 16 15 16 32 23 24 25 10 27 23 18 25 12 30 27 13 14 25 5 17
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
s s s s s s s s s s s s s s s s m s s s s s s s s s s s s s s s m m m m m m m m m m m m m m m m m m m m
119
212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248
16 8 23 14 11 9 19 6 10 15 10 11 9 13 12 13 10 16 14 9 11 15 15 12 13 6 10 11 7 10 9 15 14 13 6 10 14
23 18 28 14 19 19 23 15 19 19 15 20 19 23 11 23 16 19 14 14 15 15 16 17 18 18 18 18 14 13 14 19 21 11 9 12 20
14 23 27 22 28 22 25 17 19 26 14 18 19 19 20 23 21 24 18 22 23 15 21 22 22 29 25 27 20 18 22 18 15 16 20 27 19
12 20 27 21 26 19 20 16 15 22 18 18 18 20 22 21 17 23 14 20 20 14 18 24 24 24 24 20 22 14 18 20 15 17 22 25 20
39 26 51 28 30 28 42 21 29 34 25 31 28 36 23 36 26 35 28 23 26 30 31 29 31 24 28 29 21 23 23 34 35 24 15 22 34
26 43 54 43 54 41 45 33 34 48 32 36 37 39 42 44 38 47 32 42 43 29 39 46 46 53 49 47 42 32 40 38 30 33 42 52 39
w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w w ss w w w w
m w m w m w m w w w w w w w w w w w w w w w w w w m w m w w m m w m m w m
41 33 49 37 64 45 58 43 50 42 33 45 39 41 43 70 37 34 55 41 49 61 51 56 58 41 36 54 59 39 48 31 36 42 39 47 32
16 10 31 3 42 19 34 20 28 19 11 22 19 20 18 21 17 15 37 20 28 43 33 39 39 20 9 37 42 20 15 10 12 20 15 17 13
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 0 1 1 1 1 1 0
m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m s m m m m m
ІV.14. За даними попередньої задачі порівняти показники шкал опитувальника (перші шість), розділивши досліджуваних на три групи за віком: до 35 років; від 36 до 55 років; старші 55 років. ІV.15. За даними задачі IV.13 порівняти показники шкал опитувальника (перші шість), розділивши досліджуваних на три групи за стажем роботи: до 10 років; від 11 до 20 років; більше 20 років. ІV.16. Результати тестування групи молоді (64 чоловік) за шкалами, що характеризують рівень їх суспільно-політичної свідомості, духовної та емоцій120
ної зрілості, соціального інтелекту та рівень їх політичної активності (2 — середня, 3 — висока) подано в таблиці. Провести порівняльний аналіз даних за
Духовна зрілість
Емоційна зрілість
Соціальний інтелект
Рівень політичної активності
Рівень політичної активності
Суспільнополітична свідомість
Соціальний інтелект
Вік
Емоційна зрілість
7
5
6
2
18
5
5
5
5
3
3
33 ч 34 ч
21
7
6
5
5
3 ж
18
7
5
4
5
18
7
6
4
5
2
3
35 ч
18
7
6
4
5
3
4 ж
18
6
5
4
5
3
36 ч
18
7
6
5
6
2
5 ж 6 ж
18
8
5
5
5
2
17
6
7
4
6
3
5
5
5
3
37 ч 38 ч
17
6
18
5
7
5
6
3
7 ж
20
5
6
5
5
3
39 ч
17
6
6
4
5
3
8 ж
20
7
6
4
5
3
40 ч
17
6
7
4
6
3
9 ж
20
5
6
3
4
3
41 ч
18
5
7
6
7
3
10 ж 11 ж
20
8
5
5
5
2
7
7
4
5
3
7
5
5
5
2
42 ч 43 ч
18
19
17
6
7
4
5
3
12 ч
17
7
6
4
5
3
44 ч
18
9
7
5
6
2
13 ч
17
6
5
4
5
3
45 ч
18
8
6
4
5
2
14 ч
17
5
5
5
5
3
46 ч
17
6
6
4
5
3
15 ч 16 ч
18
6
5
4
5
3
18
7
7
7
7
2
17
6
6
4
5
3
47 ч 48 ч
18
4
6
3
4
3
17 ч
17
4
5
3
4
3
49 ч
18
6
6
3
5
3
18 ч
16
7
6
4
5
3
50 ж
18
5
7
4
5
3
19 ч
17
6
5
4
5
3
51 ж
19
7
6
3
5
3
20 ч
17
7
6
5
6
2
52 ж
18
7
6
2
4
3
21 ч
16
6
6
5
5
2
53 ж
18
7
7
7
7
2
22 ч
17
7
6
5
5
2
54 ж
17
6
6
4
5
3
23 ч
17
7
6
4
5
3
55 ж
18
6
5
4
5
3
24 ч 25 ж
16
5
6
4
5
3
18
8
6
4
5
3
17
6
6
5
5
3
56 ж 57 ж
18
5
6
4
5
3
26 ж
17
7
5
5
5
3
58 ж
18
7
5
5
5
3
27 ж
17
6
6
5
5
3
59 ж
19
9
8
5
6
2
28 ж
16
6
6
4
5
3
60 ж
18
7
7
5
6
2
29 ч 30 ч
17
9
7
5
6
2
6
6
4
5
3
6
6
5
6
3
61 ж 62 ж
18
17
18
6
6
5
5
3
31 ч
18
6
5
6
6
3
63 ж
18
6
5
4
4
3
32 ч
18
5
5
3
4
3
64 ж
17
5
5
3
4
3
Стать
Духовна зрілість
6
N пп
Суспільнополітична свідомість
20
Стать
1 ч 2 ч
N пп
Вік
статтю та рівнем політичної активності.
121
ІV.17. За даними задачі IV.6 перевірити, чи пов’язана зі статтю частота припадків у хворих на епілепсію. ІV.18. За даними задачі IV.8 встановити, які ознаки залежні між собою. ІV.19. За даними задачі IV.13 встановити, які ознаки залежні між собою. ІV.20. За даними задачі IV.16 встановити, які ознаки залежні між собою. ІV.21*.
В експериментах зі стеження з переслідуванням за рухомим
об’єктом фіксувався час t i реакції людини (в секундах) залежно від швидкості
vi руху об’єкта (в мм/с). Результати спостережень подано в таблиці. Чи залежить час реакції досліджуваного від швидкості руху об’єкта? vi 0,1 0,2 0,4 0,6 0,8 2 4 6 8 10 ti 1,05 1.08 0,57 0,56 0,52 0.22 0,24 0,26 0,15 0,16 vi 15 20 25 30 35 40 45 50 100 200 ti 0,08 0,1 0,07 0,03 0,08 0,1 0,05 0,12 0,06 0,03
*
Дані взято з книги Суходольский Г.В. Основы математической статистики для психологов. – Л.: Изд.
ЛГУ, 1972.
122
Д о д а т о к 1: Деякі статистичні таблиці Таблиця 1 Щільність стандартного нормального розподілу x 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9 4 4,1 4,2
0 0,3989 0,3970 0,3910 0,3814 0,3683 0,3521 0,3332 0,3123 0,2897 0,2661 0,2420 0,2179 0,1942 0,1714 0,1497 0,1295 0,1109 0,0940 0,0790 0,0656 0,0540 0,0440 0,0355 0,0283 0,0224 0,0175 0,0136 0,0104 0,0079 0,0060 0,0044 0,0033 0,0024 0,0017 0,0012 0,0009 0,0006 0,0004 0,0003 0,0002 0,0001 0,0001 0,0001
1 0,3989 0,3965 0,3902 0,3802 0,3668 0,3503 0,3312 0,3101 0,2874 0,2637 0,2396 0,2155 0,1919 0,1691 0,1476 0,1276 0,1092 0,0925 0,0775 0,0644 0,0529 0,0431 0,0347 0,0277 0,0219 0,0171 0,0132 0,0101 0,0077 0,0058 0,0043 0,0032 0,0023 0,0017 0,0012 0,0008 0,0006 0,0004 0,0003 0,0002 0,0001 0,0001 0,0001
2 0,3989 0,3961 0,3894 0,3790 0,3653 0,3485 0,3292 0,3079 0,2850 0,2613 0,2371 0,2131 0,1895 0,1669 0,1456 0,1257 0,1074 0,0909 0,0761 0,0632 0,0519 0,0422 0,0339 0,0270 0,0213 0,0167 0,0129 0,0099 0,0075 0,0056 0,0042 0,0031 0,0022 0,0016 0,0012 0,0008 0,0006 0,0004 0,0003 0,0002 0,0001 0,0001 0,0001
3 0,3988 0,3956 0,3885 0,3778 0,3637 0,3467 0,3271 0,3056 0,2827 0,2589 0,2347 0,2107 0,1872 0,1647 0,1435 0,1238 0,1057 0,0893 0,0748 0,0620 0,0508 0,0413 0,0332 0,0264 0,0208 0,0163 0,0126 0,0096 0,0073 0,0055 0,0040 0,0030 0,0022 0,0016 0,0011 0,0008 0,0005 0,0004 0,0003 0,0002 0,0001 0,0001 0,0001
Соті частини 4 5 0,3986 0,3984 0,3951 0,3945 0,3876 0,3867 0,3765 0,3752 0,3621 0,3605 0,3448 0,3429 0,3251 0,3230 0,3034 0,3011 0,2803 0,2780 0,2565 0,2541 0,2323 0,2299 0,2083 0,2059 0,1849 0,1826 0,1626 0,1604 0,1415 0,1394 0,1219 0,1200 0,1040 0,1023 0,0878 0,0863 0,0734 0,0721 0,0608 0,0596 0,0498 0,0488 0,0404 0,0396 0,0325 0,0317 0,0258 0,0252 0,0203 0,0198 0,0158 0,0154 0,0122 0,0119 0,0093 0,0091 0,0071 0,0069 0,0053 0,0051 0,0039 0,0038 0,0029 0,0028 0,0021 0,0020 0,0015 0,0015 0,0011 0,0010 0,0008 0,0007 0,0005 0,0005 0,0004 0,0004 0,0003 0,0002 0,0002 0,0002 0,0001 0,0001 0,0001 0,0001 0,0000 0,0000
6 0,3982 0,3939 0,3857 0,3739 0,3589 0,3410 0,3209 0,2989 0,2756 0,2516 0,2275 0,2036 0,1804 0,1582 0,1374 0,1182 0,1006 0,0848 0,0707 0,0584 0,0478 0,0387 0,0310 0,0246 0,0194 0,0151 0,0116 0,0088 0,0067 0,0050 0,0037 0,0027 0,0020 0,0014 0,0010 0,0007 0,0005 0,0003 0,0002 0,0002 0,0001 0,0001 0,0000
7 0,3980 0,3932 0,3847 0,3725 0,3572 0,3391 0,3187 0,2966 0,2732 0,2492 0,2251 0,2012 0,1781 0,1561 0,1354 0,1163 0,0989 0,0833 0,0694 0,0573 0,0468 0,0379 0,0303 0,0241 0,0189 0,0147 0,0113 0,0086 0,0065 0,0048 0,0036 0,0026 0,0019 0,0014 0,0010 0,0007 0,0005 0,0003 0,0002 0,0002 0,0001 0,0001 0,0000
8 0,3977 0,3925 0,3836 0,3712 0,3555 0,3372 0,3166 0,2943 0,2709 0,2468 0,2227 0,1989 0,1758 0,1539 0,1334 0,1145 0,0973 0,0818 0,0681 0,0562 0,0459 0,0371 0,0297 0,0235 0,0184 0,0143 0,0110 0,0084 0,0063 0,0047 0,0035 0,0025 0,0018 0,0013 0,0009 0,0007 0,0005 0,0003 0,0002 0,0001 0,0001 0,0001 0,0000
9 0,3973 0,3918 0,3825 0,3697 0,3538 0,3352 0,3144 0,2920 0,2685 0,2444 0,2203 0,1965 0,1736 0,1518 0,1315 0,1127 0,0957 0,0804 0,0669 0,0551 0,0449 0,0363 0,0290 0,0229 0,0180 0,0139 0,0107 0,0081 0,0061 0,0046 0,0034 0,0025 0,0018 0,0013 0,0009 0,0006 0,0004 0,0003 0,0002 0,0001 0,0001 0,0001 0,0000
123
Таблиця 2 Значення функції Лапласа z 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8
124
0 0 0,0398 0,0793 0,1179 0,1554 0,1915 0,2257 0,2580 0,2881 0,3159 0,3413 0,3643 0,3849 0,4032 0,4192 0,4332 0,4452 0,4554 0,4641 0,4713 0,4772 0,4821 0,4861 0,4893 0,4918 0,4938 0,4953 0,4965 0,4974 0,4981 0,4987 0,4990 0,4993 0,4995 0,4997 0,4998 0,4998 0,4999 0,4999
1 0,0040 0,0438 0,0832 0,1217 0,1591 0,1950 0,2291 0,2611 0,2910 0,3186 0,3438 0,3665 0,3869 0,4049 0,4207 0,4345 0,4463 0,4564 0,4649 0,4719 0,4778 0,4826 0,4864 0,4896 0,4920 0,4940 0,4955 0,4966 0,4975 0,4982 0,4987 0,4991 0,4993 0,4995 0,4997 0,4998 0,4998 0,4999 0,4999
2 0,0080 0,0478 0,0871 0,1255 0,1628 0,1985 0,2324 0,2642 0,2939 0,3212 0,3461 0,3686 0,3888 0,4066 0,4222 0,4357 0,4474 0,4573 0,4656 0,4726 0,4783 0,4830 0,4868 0,4898 0,4922 0,4941 0,4956 0,4967 0,4976 0,4982 0,4987 0,4991 0,4994 0,4995 0,4997 0,4998 0,4999 0,4999 0,4999
3 0,0120 0,0517 0,0910 0,1293 0,1664 0,2019 0,2357 0,2673 0,2967 0,3238 0,3485 0,3708 0,3907 0,4082 0,4236 0,4370 0,4484 0,4582 0,4664 0,4732 0,4788 0,4834 0,4871 0,4901 0,4925 0,4943 0,4957 0,4968 0,4977 0,4983 0,4988 0,4991 0,4994 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999
Соті частини 4 5 0,0160 0,0199 0,0557 0,0596 0,0948 0,0987 0,1331 0,1368 0,1700 0,1736 0,2054 0,2088 0,2389 0,2422 0,2704 0,2734 0,2995 0,3023 0,3264 0,3289 0,3508 0,3531 0,3729 0,3749 0,3925 0,3944 0,4099 0,4115 0,4251 0,4265 0,4382 0,4394 0,4495 0,4505 0,4591 0,4599 0,4671 0,4678 0,4738 0,4744 0,4793 0,4798 0,4838 0,4842 0,4875 0,4878 0,4904 0,4906 0,4927 0,4929 0,4945 0,4946 0,4959 0,4960 0,4969 0,4970 0,4977 0,4978 0,4984 0,4984 0,4988 0,4989 0,4992 0,4992 0,4994 0,4994 0,4996 0,4996 0,4997 0,4997 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999
6 0,0239 0,0636 0,1026 0,1406 0,1772 0,2123 0,2454 0,2764 0,3051 0,3315 0,3554 0,3770 0,3962 0,4131 0,4279 0,4406 0,4515 0,4608 0,4686 0,4750 0,4803 0,4846 0,4881 0,4909 0,4931 0,4948 0,4961 0,4971 0,4979 0,4985 0,4989 0,4992 0,4994 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999
7 0,0279 0,0675 0,1064 0,1443 0,1808 0,2157 0,2486 0,2794 0,3078 0,3340 0,3577 0,3790 0,3980 0,4147 0,4292 0,4418 0,4525 0,4616 0,4693 0,4756 0,4808 0,4850 0,4884 0,4911 0,4932 0,4949 0,4962 0,4972 0,4979 0,4985 0,4989 0,4992 0,4995 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999
8 0,0319 0,0714 0,1103 0,1480 0,1844 0,2190 0,2517 0,2823 0,3106 0,3365 0,3599 0,3810 0,3997 0,4162 0,4306 0,4429 0,4535 0,4625 0,4699 0,4761 0,4812 0,4854 0,4887 0,4913 0,4934 0,4951 0,4963 0,4973 0,4980 0,4986 0,4990 0,4993 0,4995 0,4996 0,4997 0,4998 0,4999 0,4999 0,4999
9 0,0359 0,0753 0,1141 0,1517 0,1879 0,2224 0,2549 0,2852 0,3133 0,3389 0,3621 0,3830 0,4015 0,4177 0,4319 0,4441 0,4545 0,4633 0,4706 0,4767 0,4817 0,4857 0,4890 0,4916 0,4936 0,4952 0,4964 0,4974 0,4981 0,4986 0,4990 0,4993 0,4995 0,4997 0,4998 0,4998 0,4999 0,4999 0,4999
Таблиця 3 Критичні значення критеріїв Діксона
Статистика
r10
r11
r12
r22
Кількість спостережень 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
0,05 0,941 0,765 0,642 0,560 0,507 0,554 0,512 0,477 0,576 0,546 0,521 0,546 0,525 0,507 0,490 0,475 0,462 0,450 0,440 0,430 0,421 0,413 0,406
Значущість, p 0,01 0,988 0,889 0,780 0,698 0,637 0,683 0,635 0,597 0,679 0,642 0,615 0,641 0,616 0,595 0,577 0,561 0,547 0,535 0,524 0,514 0,505 0,497 0,489
0,005 0,994 0,926 0,821 0,740 0,680 0,725 0,677 0,639 0,713 0,675 0,649 0,674 0,647 0,624 0,605 0,589 0,575 0,562 0,551 0,541 0,532 0,524 0,516
125
Таблиця 4 Критичні значення розподілу 2 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
126
0,001 10,83 13,82 16,27 18,47 20,52 22,46 24,32 26,12 27,88 29,59 31,26 32,91 34,53 36,12 37,70 39,25 40,79 42,31 43,82 45,31 46,80 48,27 49,73 51,18 52,62 54,05 55,48 56,89 58,30 59,70 61,10 62,49 63,87 65,25 66,62 67,99 69,35 70,70 72,05 73,40
p 0,01 6,63 9,21 11,34 13,28 15,09 16,81 18,48 20,09 21,67 23,21 24,72 26,22 27,69 29,14 30,58 32,00 33,41 34,81 36,19 37,57 38,93 40,29 41,64 42,98 44,31 45,64 46,96 48,28 49,59 50,89 52,19 53,49 54,78 56,06 57,34 58,62 59,89 61,16 62,43 63,69
0,05 3,84 5,99 7,81 9,49 11,07 12,59 14,07 15,51 16,92 18,31 19,68 21,03 22,36 23,68 25,00 26,30 27,59 28,87 30,14 31,41 32,67 33,92 35,17 36,42 37,65 38,89 40,11 41,34 42,56 43,77 44,99 46,19 47,40 48,60 49,80 51,00 52,19 53,38 54,57 55,76
41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80
0,001 74,74 76,08 77,42 78,75 80,08 81,40 82,72 84,04 85,35 86,66 87,97 89,27 90,57 91,87 93,17 94,46 95,75 97,04 98,32 99,61 100,89 102,17 103,44 104,72 105,99 107,26 108,53 109,79 111,06 112,32 113,58 114,84 116,09 117,35 118,60 119,85 121,10 122,35 123,59 124,84
p 0,01 64,95 66,21 67,46 68,71 69,96 71,20 72,44 73,68 74,92 76,15 77,39 78,62 79,84 81,07 82,29 83,51 84,73 85,95 87,17 88,38 89,59 90,80 92,01 93,22 94,42 95,63 96,83 98,03 99,23 100,43 101,62 102,82 104,01 105,20 106,39 107,58 108,77 109,96 111,14 112,33
0,05 56,94 58,12 59,30 60,48 61,66 62,83 64,00 65,17 66,34 67,50 68,67 69,83 70,99 72,15 73,31 74,47 75,62 76,78 77,93 79,08 80,23 81,38 82,53 83,68 84,82 85,96 87,11 88,25 89,39 90,53 91,67 92,81 93,95 95,08 96,22 97,35 98,48 99,62 100,75 101,88
Таблиця 5 Критичні значення розподілу Фішера-Снедекора
k2 1 2 3 4 5 6 7 8 9 10 11 12
1 4052 98,50 34,12 21,20 16,26 13,75 12,25 11,26 10,56 10,04 9,65 9,33
2 4999 99,00 30,82 18,00 13,27 10,92 9,55 8,65 8,02 7,56 7,21 6,93
k2 1 2 1 161,4 199,5 2 18,51 19,00 3 10,13 9,55 4 7,71 6,94 5 6,61 5,79 6 5,99 5,14 7 5,59 4,74 8 5,32 4,46 9 5,12 4,26 10 4,96 4,10 11 4,84 3,98 12 4,75 3,89 13 4,67 3,81 14 4,60 3,74 15 4,54 3,68
Рівень значущості p =0,01 k1 3 4 5 6 7 5403 5625 5764 5859 5928 99,17 99,25 99,30 99,33 99,36 29,46 28,71 28,24 27,91 27,67 16,69 15,98 15,52 15,21 14,98 12,06 11,39 10,97 10,67 10,46 9,78 9,15 8,75 8,47 8,26 8,45 7,85 7,46 7,19 6,99 7,59 7,01 6,63 6,37 6,18 6,99 6,42 6,06 5,80 5,61 6,55 5,99 5,64 5,39 5,20 6,22 5,67 5,32 5,07 4,89 5,95 5,41 5,06 4,82 4,64
8 5981 99,37 27,49 14,80 10,29 8,10 6,84 6,03 5,47 5,06 4,74 4,50
9 6022 99,39 27,35 14,66 10,16 7,98 6,72 5,91 5,35 4,94 4,63 4,39
10 6056 99,40 27,23 14,55 10,05 7,87 6,62 5,81 5,26 4,85 4,54 4,30
Рівень значущості p =0,05 k1 3 4 5 6 7 8 9 10 215,7 224,6 230,2 234,0 236,8 238,9 240,5 241,9 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54
127
Таблиця 6 Критичні значення критерію Розенбаума n
11
12
13
14
15
16
17
11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
6 6 6 7 7 7 7 7 7 7 8 8 8 8 8 8
6 6 7 7 7 7 7 7 7 7 7 8 8 8 8
6 6 6 7 7 7 7 7 7 7 7 8 8 8
6 6 7 7 7 7 7 7 7 7 8 8 8
6 6 7 7 7 7 7 7 7 8 8 8
6 7 7 7 7 7 7 7 8 8 8
7 7 7 7 7 7 7 8 8 8
11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
9 9 9 9 9 9 10 10 10 10 11 11 11 12 12 12
9 9 9 9 9 9 10 10 10 10 11 11 11 11 12
9 9 9 9 9 9 10 10 10 10 10 11 11 11
9 9 9 9 9 9 10 10 10 10 10 10 11
9 9 9 9 9 9 9 10 10 10 10 10
9 9 9 9 9 9 9 10 10 10 10
9 9 9 9 9 9 9 10 10 10
128
18 19 p=0,05
7 7 7 7 7 7 8 8 8 p=0,01
9 9 9 9 9 9 9 10 10
20
21
22
23
24
25
26
7 7 7 7 7 8 8 8
7 7 7 7 7 8 8
7 7 7 7 7 7
7 7 7 7 7
7 7 7 7
7 7 7
7 7
7
9 9 9 9 9 9 9 10
9 9 9 9 9 9 9
9 9 9 9 9 9
9 9 9 9 9
9 9 9 9
9 9 9
9 9
9
Таблиця 7 Критичні значення критерію Манна-Уітні
n
2
3
4
5
6
7
8
9
3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 0 0 1 1 1 1 2 2 3 3 3 3 4 4 4
0 0 1 2 2 3 4 4 5 5 6 7 7 8 9 9 10 11
1 2 3 4 5 6 7 8 9 10 11 12 14 15 16 17 18
4 5 6 8 9 11 12 13 15 16 18 19 20 22 23 25
7 8 10 12 14 16 17 19 21 23 25 26 28 30 32
11 13 15 17 19 21 24 26 28 30 33 35 37 39
15 18 20 23 26 28 31 33 36 39 41 44 47
21 24 27 30 33 36 39 42 45 48 51 54
5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 0 0 0 0 0 1 1
0 0 1 1 1 2 2 2 3 3 4 4 4 5
0 1 1 2 3 3 4 5 5 6 7 7 8 9 9 10
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
3 4 6 7 8 9 11 12 13 15 16 18 19 20 22
6 7 9 11 12 14 16 17 19 21 23 24 26 28
9 11 13 15 17 20 22 24 26 28 30 32 34
14 16 18 21 23 26 28 31 33 36 38 40
10 11 12 p=0,05
27 31 34 34 38 37 42 41 46 44 50 48 54 51 57 55 61 58 65 62 69 p=0,01
19 22 24 27 30 33 36 38 41 44 47
25 28 31 34 37 41 44 47 50 53
13
14
15
16
17
18
19
20
42 47 51 55 60 64 68 72 77
51 56 61 65 70 75 80 84
61 66 71 77 82 87 92
72 77 83 88 94 100
83 89 95 101 107
96 102 109 115
109 116 123
123 130
138
31 35 38 42 46 49 53 56 60
39 43 47 51 55 59 63 67
47 51 56 60 65 69 73
56 61 66 70 75 80
66 71 76 82 87
77 82 88 93
88 94 100
101 107
114
129
Таблиця 7 (продовження) n
4
5
6
7
8
9
10
11
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 35 36 37 38 39
26 28 29 31 32 33 35 36 38 39 41 42 43 45 46 48 49 51 52 53
34 36 37 39 41 43 45 47 48 50 52 54 56 58 59 61 63 65 67 69
41 44 46 48 50 53 55 57 59 62 64 66 68 71 73 75 77 79 82 84
49 52 55 57 60 62 65 68 70 73 76 78 81 84 86 89 92 94 97 100
57 60 63 66 69 72 75 79 82 85 88 91 94 97 100 103 106 109 112 115
65 69 72 75 79 82 86 89 93 96 100 103 107 110 114 117 121 124 128 131
73 77 81 85 89 93 96 100 104 108 112 116 120 124 128 132 135 139 143 147
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
10 10 11 12 12 13 14 14 15 15 16 17 17 18 19 19 20 21 21 22
16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
22 23 25 26 27 29 30 32 33 34 36 37 38 40 41 42 44 45 46 48
29 30 32 34 35 37 39 41 42 44 46 47 49 51 53 54 56 58 59 61
35 37 39 42 44 46 48 50 52 54 56 58 60 62 64 67 69 71 73 75
42 45 47 49 52 54 57 59 62 64 67 69 72 74 77 79 81 84 86 89
49 52 55 57 60 63 66 69 72 75 77 80 83 86 89 92 95 97 100 103
56 59 62 66 69 72 75 78 82 85 88 91 95 98 101 104 108 111 114 117
130
12 13 p=0,05 81 89 85 94 90 99 94 103 98 108 103 113 107 118 111 122 116 127 120 132 124 137 129 141 133 146 137 151 142 156 146 160 150 165 155 175 159 175 163 179 p=0,01 63 70 66 74 70 78 74 82 77 86 81 90 85 94 88 98 92 102 95 106 99 110 103 114 106 118 110 122 114 126 117 130 121 134 125 138 128 142 132 146
14
15
16
17
18
19
20
21
92 102 107 113 118 123 128 133 139 144 149 154 159 164 170 175 180 185 190 196
105 111 116 122 128 133 139 144 150 156 161 167 173 178 184 189 195 201 206 212
113 119 125 131 137 143 150 156 162 168 174 180 186 192 198 204 210 216 222 228
121 128 134 141 147 154 160 167 173 180 186 193 199 206 212 219 225 232 238 245
130 136 143 150 157 164 171 178 185 192 199 206 213 219 226 233 240 247 254 261
138 145 152 160 167 174 182 189 196 204 211 219 226 233 241 248 255 263 270 278
146 154 161 169 177 185 193 200 208 216 224 232 239 247 255 263 271 278 286 294
154 162 170 179 187 195 203 212 220 228 236 245 253 261 269 278 286 294 302 311
77 81 86 90 95 99 103 108 112 117 121 126 130 134 139 143 148 152 157 161
84 89 94 98 103 108 113 118 123 127 132 137 142 147 152 156 161 166 171 176
91 96 102 107 112 117 122 128 133 138 143 149 154 159 164 170 175 180 185 191
98 104 109 115 121 126 132 138 143 149 155 160 166 172 177 183 189 194 200 206
105 111 117 123 130 136 142 148 154 160 166 172 178 184 190 196 202 208 214 221
113 119 125 132 138 145 151 158 164 172 177 184 190 197 203 210 216 223 229 236
120 127 133 140 147 154 161 168 175 182 189 195 202 209 216 223 230 237 244 251
127 134 141 149 156 163 171 178 185 192 200 207 214 222 229 236 244 251 258 266
Таблиця 7 (продовження)
n
22
22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
171 180 188 197 206 214 223 232 240 249 258 266 275 284 292 301 310 318 327
189 198 207 216 225 234 243 252 261 271 280 289 298 307 316 325 335 344
22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
142 150 158 165 173 180 188 196 203 211 219 227 234 242 250 258 265 273 281
158 166 174 182 190 198 206 214 223 231 239 247 255 263 271 280 288 296
23 24
25
26
27
28
29
207 216 226 236 245 255 265 274 284 293 303 312 322 332 341 351 360
227 237 247 257 267 277 287 297 307 317 327 337 347 357 367 377
247 258 268 278 289 299 310 320 331 341 352 362 373 383 394
268 279 290 301 312 323 334 345 356 367 378 388 399 410
291 302 313 325 336 347 359 370 381 393 404 416 427
314 326 337 349 361 373 385 396 408 420 432 444
174 183 191 200 208 217 225 234 242 251 260 268 277 285 294 303 311
192 201 209 218 227 236 245 254 263 272 281 290 299 308 317 326
210 219 229 238 247 257 266 276 285 294 304 314 323 332 342
229 239 249 258 268 278 288 298 308 318 327 337 347 357
249 259 270 280 290 300 311 321 331 341 352 362 372
270 281 291 302 312 323 334 345 355 366 377 388
30 31 p=0,05
338 350 363 362 375 374 388 387 401 399 413 411 426 424 439 436 452 448 462 460 477 p=0,01
292 303 314 325 336 347 358 369 381 392 403
314 326 337 349 360 372 384 395 407 418
32
33
34
35
36
37
38
39
40
389 402 415 428 441 454 467 481 494
415 429 442 456 470 483 497 511
443 457 471 485 499 513 527
471 486 501 515 530 544
501 516 531 546 561
531 547 563 562 579 595 578 594 611 628
338 350 362 374 386 398 410 422 434
362 375 387 399 412 424 437 449
387 400 413 426 439 452 465
413 427 440 453 467 480
440 454 468 482 495
468 482 497 497 512 527 511 526 542 557
131
Таблиця 8 Критичні значення критерію знаків
n 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
132
p 0,05 0 0 0 1 1 1 2 2 3 3 3 4 4 5 5 5 6 6 7 7 7 8
0,01 0 0 0 0 1 1 1 2 2 2 3 3 4 4 4 5 5 5 6 6
n 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
p 0,05 8 8 9 10 10 10 11 11 12 12 13 13 13 14 14 15 15 16 16 16 17 17
0,01 7 7 7 8 8 8 9 9 10 10 10 11 11 12 12 13 13 13 14 14 15 15
n 49 50 52 54 56 58 60 62 64 66 68 70 72 74 76 78 80 82 84 86 88 90
p 0.05 18 18 19 20 21 22 23 24 24 25 26 27 28 29 30 31 32 33 33 34 35 36
0,01 15 16 17 18 18 19 20 21 22 23 23 24 25 26 27 28 29 30 30 31 32 33
n 92 94 96 98 100 110 120 130 140 150 160 170 180 190 200 220 240 260 280 300
p 0,05 37 38 39 40 41 45 50 55 59 64 69 73 78 83 87 97 106 116 125 135
0.01 34 35 36 37 37 42 46 51 55 60 64 69 73 78 83 92 101 110 120 129
Таблиця 9 Критичні значення критерію Вілкоксона
n 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
p 0,05 0 2 3 5 8 10 13 17 21 25 30 35 41 47 53 60 67 75 83 91 100 110 119
0,01 — — 0 1 3 5 7 9 12 15 19 23 27 32 37 43 49 55 62 69 76 84 92
n 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
p 0,05 130 140 151 163 175 187 200 213 227 241 256 271 286 302 319 336 353 371 389 407 426 446 466
0,01 101 110 120 130 140 151 162 173 185 198 211 224 238 252 266 281 296 312 328 345 362 379 397
133
Таблиця 10 Критичні значення критерію Краскела-Уоллеса
134
n1 2 2 2 3 3
n2 1 2 2 1 2
n3 1 1 2 1 1
3
2
2
3
3
1
3
3
2
3
3
3
4 4
1 2
1 1
4
2
2
4
3
1
4
3
2
4
3
3
H 2,7000 3,6000 4,5714 3,2000 4,2857 3.8571 5,3572 4,7143 4,5000 4,4643 5,1429 4,5714 4,0000 6,2500 5,3611 5,1389 4,5556 4,2500 7,2000 6,4889 5,6889 5,6000 5,0667 4,6222 3,5714 4,8214 4,5000 4,0179 6,0000 5,3333 5,1250 4,4583 4,1667 5,8333 5,2083 5,0000 4,0556 3,8889 6,4444 6,3000 5,4444 5,4000 4,5111 4,4444 6,7455 6,7091 5,7909 5,7273 4,7091 4,7000
p n1 n2 n3 H 0,500 4 4 1 6,6667 0,200 6.1667 0,067 4,9667 0,300 4,8667 0,100 4.1667 0.133 4,0667 0,029 4 4 2 7,0364 0,048 6,8727 0,067 5,4545 0,105 5,2364 0,043 4,5545 0,100 4,4455 0,129 4 4 3 7,1439 0,011 7,1364 0,032 5,5985 0,061 5,5758 0,100 4,5455 0,121 4,4773 0 004 4 4 4 7,6538 0,011 7,5385 0,029 5,6923 0,050 5,6538 0,086 4,6539 0,100 4,5001 0,200 5 1 1 3,8571 0,057 5 2 1 5,2500 0,076 5,0000 0,114 4,4500 0,014 4,2000 0,033 4,0500 0,052 5 2 2 6,5333 0,100 6,1333 0,105 5,1600 0,021 5,0400 0,050 4,3733 0,057 4,2933 0,093 5 3 1 6,4000 0,129 4,9600 0,008 4,8711 0,011 4,0178 0,046 3,8400 0,051 5 3 2 6,9091 0,098 6,8218 0,102 5,2509 0,010 5,1055 0,013 4,6509 0,046 4,4945 0,050 5 3 3 7,0788 0,092 6,9818 0,101 5,6485 5,5152 4,5333 4,4121
p n1 n2 0,010 5 4 0,022 0,048 0,054 0.082 0,102 0,006 5 4 0,011 0,046 0,052 0,098 0,103 0,010 5 4 0,011 0,049 0,051 0,099 0,102 0,008 5 4 0,011 0,049 0,054 0,097 0,104 0,143 5 5 0,036 0,048 0,071 0,095 0,119 0,008 5 5 0,013 0,034 0,056 0,090 0,122 0,012 5 5 0,048 0,052 0,095 0,123 0,009 0,010 5 5 0,049 0,052 0,091 0,101 0,009 0,011 5 5 0,049 0,051 0,097 0,109
n3 H 1 6,9545 6.8400 4,9855 4,8600 3,9873 3,9600 2 7,2045 7,1182 5,2727 5,2682 4,5409 4,5182 3 7,4449 7,3949 5,6564 5,6308 4,5487 4,5231 4 7,7604 7,7440 5,6571 5,6176 4,6187 4,3527 1 7,3091 6,8364 5,1273 4,9091 4,1091 4,0364 2 7,3385 7,2692 5,3385 5,2462 4,6231 4,5077 3 7,5780 7,5429 5,7055 5,6264 4,3451 4,5363 4 7,8229 7,7914 5,6657 5,6429 4,5229 4,5200 5 8,0000 7,9800 5,7300 5,6600 4,5600 4,5000
p 0,008 0.011 0.044 0,056 0 098 0,102 0,009 0,010 0,049 0,050 0,098 0,101 0,010 0,011 0,049 0,050 0,099 0,103 0,009 0,011 0,049 0,050 0,100 0,102 0,009 0,011 0,046 0,053 0,086 0,105 0,010 0,010 0,047 0,051 0 097 0,100 0,010 0,010 0,046 0,051 0,100 0,102 0,010 0,010 0,049 0,050 0,099 0,101 0,009 0,010 0,049 0,051 0,100 0,102
Таблиця 11 Критичні значення критерію Джонкхієра
n 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
k=3 0,05 0,01 11 – 22 25 36 40 54 60 75 83 100 110 128 140 160 174 194 212 232 252 274 297 318 344 366 395 418 450 472 507 530 568 591 633 655 701 722 745 793 846 867 924 944 1005 1024 1089 1108 1177 1194 1268 1284 1362 1377 1459 1474 1560 1573 1664
k=4 0,05 0,01 19 22 40 44 67 73 100 110 141 154 188 204 242 262 302 326 369 397 443 474 522 559 609 650 701 747 801 851 801 851 1018 1080 1137 1203 1261 1334 1392 1471
k=5 0,05 0,01 30 33 62 69 106 116 160 174 226 244 303 325 390 418 488 522 597 636 717 762 847 899 988 1046 1140 1205 1302 1374
k=6 0,05 0,01 43 47 90 98 154 167 234 252 330 354 443 474 572 609 717 761 878 930 1055 1115 1248 1316
k=7 0,05 0,01 58 64 122 133 210 227 321 344 454 484 610 648 788 835 989 1045 1211 1277
135
Таблиця 12 Критичні значення критерію Фрідмана
136
n=2, k=3 K p 0 1,000 1 0,833 3 0,500 4 0,167
n=3, k=3 K p 0,000 1,000 0,667 0,944 2,000 0,528 2,667 0,361 4,667 0,194 6,000 0,028
n=4, k=3 K p 0 1,000 0,5 0,931 1,5 0,653 2 0,431 3,5 0,273 4,5 0,125 6 0,069 6,5 0,042 8 0,0046
n=6, k=3 K p 0,00 1,000 0,33 0,956 1,00 0,740 1,33 0,570 2,33 0,430 3,00 0,252 4,00 0,184 4,33 0,142 5,33 0,072 6,33 0,052 7,00 0,029 8,33 0,012 9,00 0,0081 9,33 0,0055 10,33 0,0017 12,00 0,0001
n=7, k=3 K p 0,000 1 0,286 0,964 0,857 0,768 1,143 0,62 2,000 0,486 2,571 0,305 3,429 0,237 3,714 0,192 4,571 0,112 5,429 0,085 6,000 0,052 7,143 0,027 7,714 0,021 8,000 0,016 8,857 0,0084 10,286 0,0036 10,571 0,0027 11,143 0,0012 12,286 0,00032 14,000 0,000021
n=8, k=3 K p 0,00 1,000 0,25 0,967 0,75 0,794 1,00 0,654 1,75 0,531 2,25 0,355 3,00 0,285 3,25 0,236 4,00 0,149 4,75 0,120 5,25 0,079 6,25 0,047 6,75 0,038 7,00 0,030 7,75 0,018 9,00 0,0099 9,25 0,0080 9,75 0,0048 10,75 0,0024 12,00 0,0011 12,25 0,00086 13,00 0,00026 14,25 0,000061 16,00 0,0000036
n=5, k=3 K p 0 1,000 0,4 0,954 1,2 0,691 1,6 0,522 2,8 0,367 3,6 0,182 4,8 0,124 5,2 0,093 6,4 0,039 7,6 0,024 8,4 0,0085 10 0,00077 n=9, k=3 K p 0,000 1,000 0,222 0,971 0,667 0,814 0,889 0,865 1,556 0,569 2,000 0,398 2,667 0,328 2,889 0,278 3,556 0,187 4,222 0,154 4,667 0,107 5,556 0,069 6,000 0,057 6,222 0,048 6,889 0,031 8,000 0,019 8,222 0,016 8,667 0,010 9,556 0,006 10,667 0,0035 10,889 0,0029 11,556 0,0013 12,667 0,00066 13,556 0,00035 14,000 0,00020 14,222 0,000097 14,889 0,000054 16,222 0,000011 18,000 0,0000006
Таблиця 12 (продовження) n=2, k=4 K p 0,0 1,000 0,6 0,958 1,2 0,834 1,8 0,792 2,4 0,625 3,0 0,542 3,6 0,458 4,2 0,375 4,8 0,208 5,4 0,167 6,0 0,042
n=3, k=4 K p 0,0 1,000 0,6 0,958 1,0 0,910 1,8 0,727 2,2 0,608 2,6 0,524 3,4 0,446 3,8 0,342 4,2 0,300 5,0 0,207 5,4 0,175 5,8 0,148 6,6 0,075 7,0 0,054 7,4 0,033 8,2 0,017 9,0 0,0017
K 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 3,9 4,5 4,8 5,1 5,4
n=4, k=4 p K p 1,000 5,7 0,141 0,992 6,0 0,105 0,928 6,3 0,094 0,900 6,6 0,077 0,800 6,9 0,068 0,754 7,2 0,054 0,677 7,5 0,052 0,649 7,8 0,036 0,524 8,1 0,033 0,508 8,4 0,019 0,432 8,7 0,014 0,389 9,3 0,012 0,355 9,6 0,0069 0,324 9,9 0,0062 0,242 10,2 0,0027 0,200 10,8 0,0016 0,190 11,1 0,00094 0,158 12,0 0,000072
Таблиця 13 Критичні значення критерію Пейджа k п 2 3 4 5 6 7 8 9 10 11 12
3 28 42 41 55 54 68 66 81 79 93 91 106 104 119 116 131 128 144 141 156 153
4 60 58 87 84 114 111 141 137 167 163 193 189 220 214 246 240 272 266 298 292 324 317
p 5 106 103 155 150 204 197 251 244 299 291 346 338 393 384 441 431 487 477 534 523 581 570
6 173 166 252 244 331 321 409 397 486 474 $63 550 640 625 717 701 793 777 869 852 946 928
0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05 0,01 0,05
137
Таблиця 14 Критичні значення рангового коефіцієнта кореляції Спірмена
n 5 6 7 8 9 10 11 12 13 14 15 16
138
p 0,05 0,94 0,85 0,78 0,72 0,68 0,64 0,61 0,58 0,56 0,54 0,52 0,50
n 0,01 — — 0,94 0,88 0,83 0,79 0,76 0,73 0,70 0,68 0,66 0,64
17 18 19 20 21 22 23 24 25 26 27 28
p 0,05 0,48 0,47 0,46 0,45 0,44 0,43 0,42 0,41 0,49 0,39 0,38 0,38
n 0,01 0,62 0,6 0,58 0,57 0,56 0,54 0,53 0,52 0,51 0,50 0,49 0,48
29 30 31 32 33 34 35 36 37 38 39 40
p 0,05 0,37 0,36 0,36 0,36 0,34 0,34 0,33 0,33 0,33 0,32 0,32 0,31
0,01 0,48 0,47 0,46 0,45 0,45 0,44 0,43 0,43 0,43 0,41 0,41 0,4
Д о д а т о к 2: Елементи вищої математики Матриці, визначники, системи лінійних рівнянь Поняття матриці. Операції над матрицями. Матрицею розмірності m n називають прямокутну таблицю чисел, яка складається з m рядків і п стовпчиків. Числа, які утворюють матрицю називають елементами матриці. Матриці позначають великими літерами латинського алфавіту, а їх елементи відповідними малими літерами з індексами. Наприклад,
A a i j i 1, m
j 1, n
a11 a 21 a i1 a m1
a12 a 22 ai 2 am2
a1 j a1n a 2 j a 2n . ai j ai n a mj a mn
Дві матриці називаються рівними, якщо вони мають однакову розмірність і їх відповідні елементи рівні. A B i 1, m j 1, n : a i j bi j . Матриця, яка складається з одного рядка (одного стовпчика) називається вектор-рядком (вектор-стовпчиком). Як правило замість
C c11
c12
c1n
b1 b відповідно пишуть B 2 та C c1 b m
c2
b11 b21 B b m1
або
cn .
Квадратною матрицею п-го порядку називається матриця, яка складаєть2
3
— квадратна матриця 2-го ся з п рядків і п стовпчиків. Наприклад, B 1,3 7 порядку. Квадратна матриця, всі елементи якої дорівнюють нулеві, називається нуль-матрицею.
Елементи a i i i 1, n квадратної матриці п-го порядку називаються діагональними і утворюють головну діагональ матриці. Матриця, всі елементи якої окрім діагональних дорівнюють нулеві, називається діагональною. Діагональну 139
матрицю, у якої всі діагональні елементи дорівнюють одиниці, називають одиничною і позначають буквою Е. Добутком матриці A a i j на число називатимемо матрицю B a i j , кожен елемент якої дорівнює відповідному елементу матриці А, помноженому 2 1 5 6 3 15 , то 3C . Матри3 4 3 9 12
на скаляр . Наприклад, якщо C 1
цю –А=–1А називають протилежною до матриці А. Сумою матриць A a i j і B bi j однакової розмірності називають матрицю C a i j bi j , кожен елемент якої дорівнює сумі відповідних елементів ма1 3 12 31 13 34 триць А і В. Наприклад, якщо P 2 5 , а S 11 5 , то P S 9 0 . 4 1 1 13 3 12
Добутком матриці A a i j розмірності т п на матрицю B b j l розмір n k 1
ності п р називають матрицю C a i k bk l розмірності т р, кожен елемент якої є сумою добутків елементів відповідного рядка матриці А на відповідний 1 3 1 3 5 3 , то стовпчик матриці В. Наприклад, якщо D 2 5 , а F 1 1 7 0 7 1 1 ( 1) 3 1 1 3 3 ( 1) 1 ( 5) 3 7 1 3 3 0 2 0 5 3 DF 2 ( 1) 5 1 2 3 5 ( 1) 2 ( 5) 5 7 2 3 5 0 7 11 45 6 . 7 ( 1) 1 1 7 3 1 ( 1) 7 ( 5) 1 7 7 3 1 0 8 22 42 21
Зауважимо, що добуток матриць є некомутативною операцією. Так в останньому прикладі добуток FD не існує, оскільки кількість стовпчиків матриці F не дорівнює кількості рядків матриці D. Але навіть якщо обидва добутки 1 2 5 3 9 3 , 3 4 2 0 23 9
існують, вони, як правило, не рівні між собою. Наприклад, 5 3 1 2 14 22 . 2 0 3 4 2 4
але
Справджуються такі властивості: 140
1) 2) 3) 7) 8) 9)
4) 5) 6) 10) 11) 12)
A B B A; ( A B) C A ( B C ); A O A; ( A B) A B; ( AB)C A( BC );
(A) B ( AB );
A ( A) O; (A) () A; ( ) A A A; AEп E л A A; ( A B)C AC BC; A( B C ) AB AC;
Матриця A a j i називається транспонованою до матриці A a i j . Очевидно, що коли розмірність матриці А дорівнює тп, то розмірність транспоно1 5 1 5 2 , то A 5 1 . ваної матриці — пт. Наприклад, якщо A 5 1 7 2 7
Справджуються такі властивості операції транспонування: 1) ( A) A; 3) ( A B ) A B ; 2) (A) A; 4) ( AB) B A. Визначник матриці. Обернена матриця Для квадратних матриць вводиться поняття визначника (або детермінанта) матриці. Визначником матриці A ( a11 ) першого порядку будемо називати елемент цієї матриці: det A a11 . a
a
Визначником матриці A 11 12 другого порядку будемо називати чи a 21 a 22 сло det A
a11
a12
a 21
a 22
a11 a 22 a 21 a12 . Наприклад,
a11 Визначником матриці A a 21 a 31
a13 a 22 a 32
3 5 3 7 2 (5) 31. 2 7
a13 a 23 третього порядку будемо назиa 33
вати число a11
a13
a13
det A a 21
a 22
a 23 a11 a 22 a 33 a 31 a13 a 23 a 21 a 32 a13 a 31 a 22 a13 a11 a 32 a 23 a 21 a13 a 33 .
a 31
a 32
a 33
1 3
Наприклад, 2 7 2
1
2 3 14 18 4 28 3 12 71 . 2
Визначникам матриць притаманні такі властивості: 141
1) Визначник одиничної матриці дорівнює одиниці det E 1 .
2) Якщо який–небудь рядок (стовпчик) матриці складається з одних нулів, то визначник матриці дорівнює нулеві. a11 det 0 a n1
a1n 0 0. a nn
3) Якщо всі елементи якого-небудь рядка (стовпчика) матриці помножити на деяке число, то і визначник матриці помножиться на це число. a11 det a i1 a n1
a1n
a11 a in det a i1 a nn a n1
a1n a in a nn
4) Визначник матриці, рядок (стовпчик) якої є сумою двох рядків(стовпчиків) дорівнює сумі відповідних визначників. a1n a11 a11 det a i1 bi1 a in bin det a i1 a nn a n1 a n1
a1n a11 a in det bi1 a nn a n1
a1n bin a nn
5) При транспонуванні матриці її визначник не змінюється. det A det A .
6) При перестановці двох довільних рядків (стовпчиків) матриці її визначник змінює знак на протилежний.
142
a11 a k1 det a m1 a n1
a1n a11 a a kn m1 det a mn a k1 a nn a n1
a1n a mn a kn a nn
7) Визначник матриці, що містить два однакові рядки (стовпчики), дорівнює нулю. 8) Якщо до одного з рядків (стовпчиків) матриці додати інший, помножений на деяке число, то визначник матриці не зміниться. Мінором M i j елемента ai j матриці А будемо називати визначник матриці, утвореної викреслюванням у матриці А рядка і стовпчика, де стоїть цей елемент. Алгебричним доповненням елемента ai j матриці А будемо називати число Ai i 1 M i j . i j
9) Визначник матриці дорівнює сумі добутків елементів будь-якого рядка (стовпчика) матриці на їх алгебричні доповнення. n
det A ai j Ai j . i 1
Остання властивість дозволяє обчислювати визначники квадратних матриць будь-якого порядку, зведенням до обчислення визначників на одиницю меншого порядку. Наприклад, 5 0 1 1 4 1 1 1
4 2 2 1
2 1 2 1 1 1 1 1 1 2 1 5 1 2 0 0 4 4 1 0 2 4 1 2 5 5 4 8 2 7 7 . 0 1 1 1 1 1 1 1 1 1 1
143
Рангом матриці будемо називати найвищий порядок відмінного від нуля 2 1 1 мінора цієї матриці. Наприклад, ранг матриці 3 1 2 дорівнює 2, бо мі 2 4 2 1
2
нор третього порядку 3
1
1
2 4
2 0 , а мінор другого порядку 2
2 1 3 0. 1 2
Квадратна матриця A1 називається оберненою до матриці A , якщо A1 A AA1 E .
Матриця A називається невиродженою, якщо det A 0 . Кожна невироджена матриця має обернену. Обернена матриця обчислюється за формулою A11 1 1 A12 1 Ai j A det A det A A 1n
A21 A22 A2 n
An1 An 2 . Ann
Тут Ai j — алгебричне доповнення елемента ai j матриці A . 1 2 0 Приклад 1. Знайти матрицю, обернену до матриці B 3 0 0 . 2 1 5
Розв’язання: det B 5
триці
B22
B
1
B.
1 0 5, 2 5
B11
1 2 30 . Знаходимо алгебричні доповнення елементів ма3 0
0 0 0, 1 5
B23
B12
3 0 15, 2 5
1 2 2 0 3, B31 0, 2 1 0 0
1 10 0 0 0 3 1 1 5 0 2 16 15 30 3 6 110 110 3
144
0 0 . 1 5
B13
B32
3 0 2 0 3, B21 10, 2 1 1 5
1 0 1 2 0, B33 6. 3 0 3 0
Тоді,
Системи лінійних алгебричних рівнянь a11 x1 a12 x 2 a1n x n b1 a x a x a 2 n x n b2 Система рівнянь виду 21 1 22 2 називається системою a m1 x1 a m 2 x 2 a mn x n bm1
лінійних алгебричних рівнянь.
a11 a Якщо ввести позначення A 21 a m1
a12 a 22 am 2
a1n x1 b1 a2n b x2 , X , B 2 , то x b n n amn
систему лінійних алгебричних рівнянь можна записати у вигляді: AX B .
a11 a Матрицю A | B 21 a m1
a12 a22 am 2
a1n b1 a 2 n b2 називають розширеною матри amn bm
цею системи. Система лінійних алгебричних рівнянь сумісна (має розв’язки) тоді і лише тоді, коли ранг матриці А системи дорівнює рангу її розширеної матриці. Якщо при цьому кількість невідомих дорівнює цьому рангу, то система має єдиний розв’язок. Якщо кількість невідомих більша, ніж цей ранг, то система має безліч розв’язків. Якщо матриця А системи лінійних алгебричних рівнянь квадратна і невироджена, то розв’язок системи обчислюємо за формулою X A 1 B . Знаходження розв’язку будь-якої сумісної системи може бути зведене до розв’язування системи лінійних алгебричних рівнянь з квадратною матрицею розмірності rank A відкиданням залежних рівнянь та перенесенням частини невідомих у праву частину системи. Ненульовий розв’язок Х системи лінійних алгебричних рівнянь AX X з квадратною матрицею А називають власним вектором матриці А, який відпо-
145
відає власному значенню цієї матриці. Очевидно, що власні значення матриці А є коренями характеристичного рівняння
det A E 0 .
2 3 Наприклад, власними значеннями матриці є розв’язки рівняння 4 2 2
3
4
2
0 (або 2 16 0 ), а саме числа 1 4 і 2 4 . Відповідні їм
2 власні ветори знаходимо як розвязки системи 4
x1 0 . Зокре 2 x2 3
1 ма, будь-який вектор X c , де с — довільна ненульова константа буде 2 власним вектором, що відповідає власному значенню 1 4 , а вектор
3 X c — власним вектором, що відповідає власному значенню 2 4 . 2 Якщо квадратну матрицю А розмірності п розглядати як деякий оператор, який кожний вектор X n переводить у вектор AX n , то власні вектори матриці А можна розглядати як інваріантні (незмінні) відносно дії оператора напрямки у просторі n .
Вступ до математичного аналізу Відповідність f між множинами Х та Y, при якій кожному елементу множини Х відповідає єдиний елемент множини Y, називають функцією. Множину Х при цьому називають областю визначення функції f (пишуть
D f X ). Множину E f y Y | x X : f x y називають множиною значень функції f . Якщо X та Y — числові множини, то функцію f : X Y називають числовою функцією однієї змінної. Якщо X n , а Y , то f назифають числовою функцією п змінних x1 , x2 , ..., xn .
146
Числові послідовності та їх границі Числову функцію a n f n натурального аргумента називають числовою послідовністю (позначають a n ). Послідовність a n називають монотонно зростаючою (монотонно спадною), якщо n : an 1 a n ( n : an 1 a n ). Послідовність a n називають монотонно неспадною (монотонно незростаючою), якщо n : an 1 a n ( n : an 1 a n ).
an називають обмеженою згори, якщо M n : Послідовність a n називають обмеженою знизу, якщо m n :
Послідовність
an M .
a n m . Послідовність a n називають обмеженою, якщо M n : an M . Скінчене число а називають границею числової послідовності a n коли
n (пишуть a lim a n ), якщо 0 n n n : an a . У цьому n
випадку послідовність a n називають збіжною послідовністю. В інших випадках послідовність називають розбіжною. Наприклад, послідовність a n
n2 2n 5
n
n2 1 n 2 3n 1 n — роз— збіжна, бо lim , а послідовності bn та cn n 2 n 5 2 n2 n2 біжні. Якщо lim a n 0 , то послідовність a n називають нескінченно малою. Поn
1 слідовність a n називають нескінченно великою, якщо послідовність не an скінченно мала. Якщо lim an a , а lim bn b , то послідовності an bn і an bn також n
n
збіжні, причому lim a n bn a b і lim a n bn ab . Якщо крім того bn 0 і n
n
a a a b 0 , то збігається послідовність n і lim n . Цю властивість використо bn n bn b 147
n 2 5n 2 вують для обчислення границь послідовностей. Наприклад, lim n 3 n2
n 2 5n 2 5 2 lim 1 5 2 5 2 1 2 n lim 2 2 1 lim 2 2 2 n n lim n n n n n n n n 1 0 0 1. lim n 2 n n 3 3 3 n 0 1 3 1 lim 1 lim 1 2 2 2 2 2 n n n n n n n Якщо послідовність a n монотонно неспадна і обмежена згори (монотонно не зростаюча і обмежена знизу), то вона збіжна. Наприклад, монотонно n
1 зростаюча і обмежена згори послідовність a n 1 збігається. ЇЇ границю n n
1 називають числом Ерміта і позначають e lim1 . Число е ірраціональне, n n
e 2,71828183 . Границя функції в точці. Односторонні границі Число а називають границею функції f, коли
x x0 , (пишуть
a lim f x ), якщо xn D f : lim xn x0 xn x0 lim f xn a . x x0
n
n
Якщо lim f x 0 , то функцію f x називають нескінченно малою, коли x x0
x x0 . Якщо lim f x a , а lim g x b , то існують границі суми і добутку цих x x0
x x0
функцій у точці, причому lim f x g x a b і lim f x g x ab . Якщо крім x x0
x x0
того g x 0 в деякому околі точки x0 і b 0 , то існує границя їх частки і
lim
x x0
f x a . Наприклад, g x b
x2 4 lim lim x2 x 7 3 x2
x
lim x 2 x 7 3 lim x 2lim x2
148
x 2x 2 x 7 3 4 x 7 3 lim x2 x 7 3 x 7 3 x2 2
x 2
x2
x 7 3 4 6 24 .
1 sin x 1 і lim 1 x x e , які називають відx 0 x 0 x
Справджуються рівності lim
повідно першою і другою визначними границями. Число а називають границею функції f, коли x x0 зліва, (пишуть
a lim f x ), якщо xn D f : lim xn x0 xn x0 lim f xn a . x x0 0
n
n
Число а називають границею функції f, коли x x0 справа, (пишуть
a lim f x ), якщо xn D f : lim xn x0 xn x0 lim f xn a . x x0 0
n
n
Якщо існує границя функції f в точці, то в цій точці існують правостороння і лівостороння границі функції f, причому всі три границі рівні між собою. Якщо односторонні границі функції в деякій точці існують, але не дорівнюють одна одній, то границі функції в цій точці не існує. Неперервність функції Функцію y f x називають неперервною в точці x0 , якщо в цій точці існує границя функції f, причому lim f x f x0 . x x0
Функцію y f x називають неперервною зліва в точці x0 , якщо в цій точці існує лівостороння границя функції f, причому lim f x f x0 . x x0 0
Функцію y f x називають неперервною справа в точці x0 , якщо в цій точці існує правостороння границя функції f, причому lim f x f x0 . x x0 0
Функцію називають неперервною на інтервалі a; b , якщо вона неперервна в кожній точці цього інтервалу. Функцію називають неперервною на відрізку a; b , якщо вона неперервна в кожній точці інтервалу a; b , неперервна справа в точці а та неперервна зліва у точці b. Якщо в точці x0 існують скінчені односторонні границі функції f, але вони не дорівнюють одна одній або значенню функції в цій точці, то точку x0 на149
зивають точкою розриву І роду. Якщо ж хоч одна з односторонніх границь функції f в точці x0 не існує або нескінчена, то точку називають точкою розриву ІІ роду. Якщо на деякому відрізку a; b функція має скінчену кількість розривів І роду, то її називають кусково-неперервною на цьому відрізку.
Диференціальне числення функцій однієї змінної Похідна функції в точці Нехай функція y f x , визначена і неперервна в деякому околі точки f x f x0 x0 . Якщо існує границя lim , то цю границю називатимемо похідx x0 x x0 ною функції f у точці x0 і позначатимемо f x0 . Наприклад, якщо f x sin x , то x x0 x x0 x x0 2 sin cos sin sin x sin x0 2 2 lim 2 cos x x0 f ' x0 lim lim x x0 x x0 x x0 x x0 x x0 x x0 2 2 x x0 1 lim cos cos x0 . x x0 2 Похідні основних елементарних функцій обчислюються за формулами.
f x
f 'x
f x
xp
px p 1
tg x
ex
ex
ctg x
ex
a x ln a
arcsin x
1 x 1 x ln a
arccos x
sin x
cos x
arcctg x
cos x
sin x
ln x log a x
150
arctg x
f 'x 1 cos 2 x 1 sin 2 x 1
1 x2 1 1 x2 1 1 x2 1 1 x2
f x
f 'x
sh x
ch x
ch x
sh x
th x cth x
1 ch 2 x 1 sh 2 x
Для обчислення похідних використовують такі правила диференціювання: 1) C ' 0 ;
4) Cu x ' Cu ' x ;
2) u x v x ' u ' x v ' x ;
u x u ' x v x u x v' x 5) ; 2 v x v x
3) u x v x ' u ' x v x u x v' x ;
6) u v x ' u ' v x v ' x .
Наприклад,
x 2 ln x 2
x 2 x 2 x 2 x 2
1 x22 x 2
x
x2
1
2 x 2 x 2
x 2
2 . x 4 x
Диференційовність функції Якщо приріст функції f в точці x0 можна представити у вигляді
f x f x0 A x x0 x x x0 , де А — деяка константа, а x — нескінченно мала, коли x x0 , то функцію f називають диференційовною в цій точці. Диференціалом функції f в точці x0 називають головну лінійну частину її приросту df x0 A x x0 . Для малих приростів аргумента приріст диференційовної функції практично не відрізняється від її диференціала. Кожна диференційовна в точці x0 функція є неперервною в цій точці. Необхідною і достатньою умовою диференційованості функції в точці є інування в цій точці її похідної. Для диференційовної функції справджується рівність df x0 f x0 x x0 . Оскільки dx x x0 , то похідну функції в точці можна записати у вигляді f ' x0
df x0 . dx
Пряма y f x0 f ' x0 x x0 є дотичною до графіка диференційовної в точці x0 функції f у цій точці.
151
Функція називається диференційовною на інтервалі a; b , якщо вона диференційована в кожній точці цього інтервалу. Монотонність функції. Екстремуми Для неперервних на відрізку a; b та диференційовних на інтервалі a; b функцій справджується формула скінчених приростів Лагранжа
f b f a f ' c b a , де a c b — деяка внутрішня точка інтервалу a; b . Як видно з останньої формули, якщо похідна функції на деякому інтервалі додатна (від’ємна), то функція монотонно зростає (спадає) на цьому інтервалі. Точка x0 є точкою локального мінімуму (локального максимуму) функції
y f x , якщо існує окіл цієї точки, для кожної точки х якого виконується нерівність f x f x0
f x f x0 .
Точки локальних мінімумів та локальних
максимумів функції називають точками її локальних екстремумів. Внутрішні точки області визначення функції, в яких похідна функції не існує або існує і дорівнює нулеві, називають критичними точками функції. Необхідною умовою існування в даній точці локального екстремуму диференційовної функції є рівність нулю її похідної в цій точці. Достатньою умовою існування в даній точці екстремуму функції є зміна знака її похідної при переході через цю точку. Найбільше та найменше значення неперервної на відрізку a; b функції досягається в її критичних точках або на кінцях відрізка. Похідні вищих порядків Якщо похідну функції y f x , диференційованої в точці х, розглядати як функцію цієї точки, то отримаємо функцію y f ' x . Похідною п-го порядку функції f будемо називати похідну її похідної п – 1 порядку:
152
f x f x , f x f x , f
IV
x f x , ,
f n x f n 1 x .
Якщо функція має похідні до n 1 порядку в околі точки x0 , то її приріст у цій точці можна записати за формулою Тейлора n
f x f x0 i 1
f i x0 x x0 i x x x0 n , i!
де lim x 0 . Формула Тейлора дає змогу замінити знаходження значення доx x0
статню кількість раз диференційовної функції обчисленням значення відповідного їй многочлена. Зокрема для n 2
f x f x0 f ' x0 x x0
1 2 f x0 x x0 . 2
Це дає підстави стверджувати, що функція f буде опуклою вниз (графік функції лежить вище від дотичної в точці x0 ), якщо f x0 0 , і опуклою вгору (графік функції лежить нижче від дотичної), якщо f x0 0 .
Інтегральне числення функцій однієї змінної Первісна функції. Невизначений інтеграл Функцію y F x називають первісною до функції y f x на множині Х, якщо F ' x f x на цій множині.
Оскільки F x C F ' x C ' f x 0 f x , де С — довільна стала, то будь-яка функція F x C також є первісною до функції f. Легко бачити, що будь-які дві первісні функції f відрізняються лише на константу. Справді, якщо F ' x f x і Ц ' x f x , то за формулою скінчених
F x Ц x F x0 Ц x0 F ' c Ц ' c x x0 f c f c x x0 0x x0 0 , і тому F x Ц x F x0 Ц x0 C const . Отже, F x Ц x C . приростів
Лагранжа
153
Сукупність всіх первісних функції y f x називають невизначеним інтегралом функції f і позначають
f x dx . Очевидно f x dx F x C .
Невизначений інтеграл має такі властивості. 1. d f x dx f x dx .
4.
2. dF x F x C .
5. cf x dx c f x dx .
3.
f x g x dx f x dx g x dx .
f x dx f u du
Нижче наведено таблицю основних невизначених інтегралів.
f x
f x dx
f x
f x dx
x , p 1
x p 1 C p 1
sh x
ch x C
1 x
ln x C
ch x
sh x C
ex
ex C
1 ch 2 x
th x C
ax C ln a
1 sh 2 x
cth x C
sin x
cos x C
1 a2 x2
1 x arctg C a a
cos x
sin x C
1 x a2
1 xa ln C 2a x a
1 cos 2 x
tg x C
1 sin 2 x
ctg x C
p
a
x
2
1 2
a x
2
1 2
x a
arcsin
x C a
ln x x 2 a C
Для обчислення невизначеного інтеграла використовують формулу заміни змінної
f x dx f t ' t dt 154
та формулу інтегрування частинами
u x dvx u x vx v x du x . Розглянемо приклади.
x 2 t 2 t 3 3 dt 2 1 3 dt dx 2t dt 1. 2 3 t 3t 3t 3 x 2 dx 2tdt
2 dt 6
dt d t 3 2t 6 2t 6 ln t 3 C 2 x 2 6 ln 3 x 2 C . t 3 t 3
u x 2 u x dv cos x dv sin x dx 2 2 2. x sin x dx x cos x 2 x cos xdx v cos x v sin x du dx du 2 x dx
x 2 cos x 2 x sin x sin x dx 2 x 2 cos x 2 x sin x C .
u ln x dv xdx x2 1 x2 x2 2 3. x ln x dx v x / 2 ln x x dx ln x C. 2 2 4 2 du dx x Визначений інтеграл Нехай на відрізку a; b задано обмежену
y
функцію y f x . Спробуємо знайти площу фігури, обмеженої лініями x a , y 0 , x b та ...
y f x (рис. 33). Для цього побудуємо розбиття відрізка a; b точками xi (i 1..n ) , так
... x
O
a
що a x0 x1 x1 xi 1 xi x n b . На
xi–1 xi i
b
Рис. 33
кожному елементі розбитя виберемо точки xi 1 i xi , які утворять набір . n
Позначимо xi xi xi 1 і max xi . Число , f i xi називатимемо i
i 1
155
інтегральною сумою функції f, яка відповідає розбиттю і набору точок . Цю суму можна вважати наближеним значенням площі заданої криволінійної трапеції. Точне значення площі могло б бути знайдене при нескінченному подрібненні розбиття . Якщо існує lim , , яка не залежить ні від способу розбиття, ні від ви 0
бору точок на елементах розбиття, то її називають визначеним інтегралом функції y f x на відрізку a; b :
b
a
n
f x dx lim f i xi . 0
i 1
У цьому випадку кажуть, що функція y f x інтегровна за Ріманом на відрізку a; b . Неперервні та кусково неперервні на відрізку функції є інтегровними за Ріманом на цьому відрізку. Визначений інтеграл має такі властивості. 1. Якщо f x і g x — інтегровні за Ріманом на відрізку a; b , то b
b
b
a f x g x dx a f x dx a g x dx . 2. Якщо f x — інтегровна за Ріманом на відрізку a; b і c a; b , то
b
a
c
b
a
c
f x dx f x dx f x dx .
a
f x dx 0 .
3.
a
4.
b
a
a
f x dx f x dx . b
5. Якщо функція y f x неперервна на відрізку
a; b,
то функція
x
Ц x f t dt є первісною для функції f Ц ' x f x . a
Якщо
F x
—
будь-яка
інша
перевісна
функції
x
y f x ,
то
F x Ц x C f t dt C . Покладаючи в цій рівності x a , отримаємо a a
x
a
a
F a f t dt C 0 C C . Звідси F x f t dt F a і 156
x
f t dt F x F a . a
Останню формулу називають формулою Ньютона-Лейбніца і використовують для обчислення визначених інтегралів від неперервних функцій. Наприклад,
0
1 1 1 1 1 sin x dx 1 cos 2 x dx dx cos 2 x dx x sin 2 x = 2 0 2 0 2 0 2 0 4 0 2
1 1 1 0 sin 2 sin 0 . 2 4 4 2 Формула інтегрування частинами для визначеного інтеграла матиме вигляд b
b
b
ux v' x dx u x vx a vx u 'x dx . a
a
Якщо функція x t диференційовна на ; разом з оберненою до неї функцією, причому a i b , а функція y f x — неперервна на відрізку a; b , то справджується рівність
b
f t t dt f x dx , a
яку називають формулою заміни змінної у визначеному інтегралі. Невластиві інтеграли Якщо функція y f x обмежена на a; і інтегрована за Ріманом на будь-якому відрізку всередині цього проміжка, то невластивим інтегралом першого роду від функції f на проміжку a; називають границю
a
f x dx lim
A
f x dx .
A a
Якщо ця границя існує і скінченна, то інтеграл
a
f x dx називають збіжним.
Якщо функція y f x необмежена на a; b , але інтегрована за Ріманом на будь-якому відрізку a; b всередині цього проміжка, то невластивим інтегралом другого роду від функції f на відрізку a; b називають границю
157
b
a
f x dx lim
b
0 a
f x dx . b
f x dx
Якщо ця границя існує і скінченна то інтеграл Наприклад, інтеграл 1e
lim arcsin x 0
бо
e
0
dx 1 x
2
є збіжним, бо
lim arcsin 1 arcsin 1 0
0
1
a
A dx dx lim e lim ln ln x x ln x A x ln x A
A e
dx
1
0
називають збіжним.
1 x
. Інтеграл 2
e
2
lim
1
0 0
dx 1 x
2
dx — розбіжний, x ln x
lim ln ln A 0 . A
Частинні похідні функцій багатьох змінних Частинною похідною за змінною xi функції y f x1 , x2 ,..., xn у внутрішній точці x1o , x2o ,..., xno її області визначення називають границю
f x1o , x2o ,..., xio1 , xi , xio1 ,..., xno f x1o , x2o ,..., xio1 , xio , xio1 ,..., xno f o o o x1 , x2 ,..., xn xlim . o xi xi xio i xi Для обчислення частинних похідних функції багатьох змінних користуються тими ж правилами диференціювання, що й для похідної функції однієї y z
змінної. Наприклад, для функції u x, y, z x частинні похідні за змінними х, у y
y
y u y z 1 u y ln x ln x u та z відповідно дорівнюють x , xz , x z 2 . x z z z y z
Диференціал першого порядку функції багатьох змінних обчислюється за n
f dxi . i 1 xi
формулою df
Якщо частинні похідні функції багатьох змінних розлядати як функції точки, то послідовним диференціюванням можна обчислювати похідні вищих по-
2 f f рядків xi x j x j xi
158
3 f , xi x j xk xk
2 f x x i j
і т.д.
Д о д а т о к 3: Деякі команди Maple 8. Команди у Maple 8 завершуються крапкою з комою або двокрапкою. Двокрапка означає, що команда має бути виконаною, але результат її виконання не треба виводити на екран. Вирази у Maple 8 записують як і в більшості мов програмування. Напри-
a 3b sin x 2 клад, вираз x e 3 cos 2 2 x
задається командою (a-3*b*sin(x^2))/(exp
(x)+З*cos(2*x)^2);. Для спрощення виразів використовують команду simplify, аргументом якої є спрощуваний вираз. Для обчислення наближеного значення виразу використовують команду evalf. Наприклад, evalf(Pi, 100); виведе на екран 100 знаків числа . Знайти розв'язок рівняння, або системи рівнянь можна командою solve. Наприклад, solve(х^3-5*х^2+6=0,х); знаходить розв'язки рівняння
x3 5x 2 6 0 ,
а команда
solve({5*x-3*y=5,2*x+7*y=b},{х,у});
5 x 3 y 5, — розв’язки системи рівнянь 2 x 7 y b. Для розв'язування задач лінійної алгебри треба спочатку завантажити відповідний пакет командою with(linalg); Матрицю А розмірності m n задає команда matrix. Наприклад, команда A:=matrix(3,4,[5,7,-2,4,3,-5,0,2,5,7,-1,2]); задає матрицю
5 7 2 4 A 3 5 0 2 . 5 7 1 2 Операції додавання матриць та множення матриці на число записують за допомогою звичайних знаків арифметичних операцій. Наприклад, А+В; -В; -2*В+3*А; А-х*Е;. Множення матриць позначається знаком &*. Наприклад, A&*B; B&*A; A&*A&*A+5*A&*A-3*A+5*E;. Вивести на екран матрицю можна командою evalm. 159
Визначник квадратної матриці С обчислюють командою det(C);. Для знаходження матриці, оберненої до матриці С, можна використати команду inverse(C); або команду С^(-1);. Власні значення матриці знаходить команда eigenvalues, а власні вектори — eigenvectors. Для задання функції слугує команда ->. Наприклад, команда f:=x-> exp(5*sin(x)); задає функцію f x e 5 sin x , команда F:=(x,y)->(x-у^3
x y3 )/(х+3*у); — функцію F x, y , а команда z:=x->piecewise(x x 3y x 5, x 3;5, -3,x-5,x+3); — функцію z x x 3, x 3;5. Для побудови графіків функцій використовують пакет, що завантажується командою with(plots);. Команда plot(f(x),x=a..b); будує графік функції y f x на проміжку a; b . Команда plot(f(х,у),х=а.. b, у=с..d); будує поверхню, яка є графіком функції z f x, y на прямокутнику a; b c; d . Для обчислення границь послідовностей і функцій можна використати команду limit. Команда limit((1+1/n)^n,n=infinity); обчислює
границю послідовності xn 1
n
1 , коли n . Команда limit((х^3n
x3 8 8)/(х^2-4),х=2); обчислює lim 2 , а команди limit(abs(x-l)/ x2 x 4 sin(x-1),x=l,left); та limit(abs(x-l)/sin(x-l),x=l,right); — односторонні границі lim
x 10
x 1 sin x 1
та lim
x 1 0
x 1 sin x 1
.
Для обчислення похідних функцій використовують команду diff. Так команда diff(x^2*cos(ln(x)),x); обчислює похідну за х функції y
x 2 cos ln x , послідовність команд g:=x->diff(x^2*cos(ln(x)),х$2); 160
g(1); — другу похідну цієї функції в точці х = 1, а, наприклад, команда diff
5 x 2 y 2 e x y ((х^2+у^2)*ехр(х-у),х$2,у$3); — частинну похідну . x 2 y 3 Команда int служить для обчислення як невизначених, так і визначених інтегралів. Наприклад, команда int((x+3)*sin(2x/3),x); обчислює невизначений інтеграл
2x x 3 sin dx , а команда int((x^3-2*х+5)* 3
х),х=0..2); — визначений інтеграл Збіжний невластивий інтеграл
0
2
x
3
0
ехр(-
2 x 5e x dx .
2
x 2 e x dx обчислюють командою int(x
^2*ехр(-х^2),х=0..infinity);. Кратні інтеграли можна обчислити після їх попереднього зведення до повторних.
Наприклад,
команда
int(int(x*y,y=-sqrt(4-x^2)..
sqrt(4-x^2)),x=-2..2); обчислює подвійний інтеграл 2
xy dxdy .
x y2 4
Суму збіжного ряду можна обчислити за допомогою команди sum. Наприклад, команда sum((-1)^n/n^2,n=1..infinity); обчислить суму
ряду
n 1
1n . n2
161
Алфавітний покажчик А асиметрія Б борелівське поле подій В варіаційний ряд дискретний варіаційний ряд інтервальний вибірка вибірка репрезентативна вибіркове середнє визначник матриці випадкова величина випадковий вектор вірогідний інтервал власне значення власний вектор Г генеральна сукупність гістограма відносних частот границя послідовності границя функції Д дисперсія диференціал функції Е ексцес З закон Бернуллі І імовірнісний простір інтегра визначений інтеграл невизначений інтеграл невластивий І роду інтеграл невластивий ІІ роду К квантиль квартилі коваріаційна матриця коваріація коефіцієнт кореляції ранговий Спірмена коефіцієнт кореляції Пірсона коефіцієнт спряженості Крамера коефіцієнт спряженості Пірсона коефіцієрт лінійної кореляції критерій Вілкоксона критерій Джонкхієра критерій Діксона критерій знаків критерій Колмогорова критерій Краскела-Уоллеса критерій Манна-Уітні
162
24 8 51 53 50 50 55 140 15 33 56 145 144 50 53 146 147 23 150 24 44 8 155 153 156 157 24 25 40 37 105 109 102 102 38 85 92 65 84 71 89 78
критерій непараметричний критерій параметричний критерій Пейджа критерій Розенбаума критерій Смирнова критерій Стьюдента критерій Фішера критерій Фрідмана критерій хі2 Пірсона критична область критичні точки М математичне сподівання матриця матриця обернена медіана Н надійність критерію незалежні події незміщена оцінка дисперсії неперервна функція О однофакторний дисперсійний аналіз оперативна характеристика П первісна полігон відносних частот помилка І роду помилка ІІ роду потужність критерію похідна функції в точці правило трьох сігм Р рівень значущості розподіл Бернуллі розподіл біномний розподіл випадкової величини розподіл нормальний розподіл Пуассона розподіл рівномірний розподіл Стьюдента розподіл Фішера-Снедекора розподіл хі2 С середнє квадратичне відхилення статистика статистика Шеффе статистичний критерій Т таблиця спряженості теорема Лапласа інтегральна теорема Ляпунова
58 58 95 76 73 79 75 93 67 58 58 21 138 143 24 59 10 56 148 97 59 152 51 59 59 59 149 30 59 25 25 16 28 27 27 32 33 32 23 55 98 58 101 31 44
теорема Муавра-Лапласа локальна теорема Чебишева У умовна ймовірність умовний розподіл Ф формула повної ймовірності формули Байєса функція розподілу функція розподілу емпірична
30 43 9 36 11 12 16, 34 51, 53
Ш шкала дихотомічна шкала інтервальна шкала номінативна шкала порядкова шкала рівних відношень щільність розподілу
62 63 62 63 64 19, 35
163
Література 1. Анаcтази А., Урбина С. Психологическое тестирование. 7-е изд. / Пер. с англ. под общ. ред. А.А. Алексеева. – СПб.: Питер, 2005. 688 с. 2. Гласc Дж., Стенли Дж. Статистические методы в педагогике и психологии. / Пер. с англ. под общ. ред. Ю.П. Адлера. – М.: Прогресс, 1976. 495 с. 3. Гублер Е.В. Вычислительные методы анализа и распознавания патологических последствий. – Л.: Медицина, 1978. 296 с. 4. Гусев А.Н. Дисперсионный анализ в экспериментальной психологии. – М.: Учебно-методический коллектор «Психология», 2000. 136 с. 5. Захаров В.П. Применение математических методов в социальнопсихологических исследованиях. Учебное пособие. – Л.: ЛГУ, 1985. 64 с. 6. Ивантер Э.В., Коросов А.В. Основы биометрии: Введение в статистический анализ биологических явлений и процессов. Учебное пособие. – Петрозаводск: ПГУ, 1992. 163 с. 7. Кендалл М., Стюарт А. Статистические выводы и связи. / Пер. с англ. под ред. А.И. Колмогорова. – М.:Наука, 1973. 900с. 8. Лашков К.В., Поляков Л.Е. Непараметрические методы медико-статистических исследований. / Методологические вопросы санитарной статистики. Ученые записки по статистике, т.IХ. – М.: Наука, 1965. С. 136-184. 9. Пишо П. Психологическое тестирование. 16-е изд. // Пер. с англ. под ред. А.И. Нафтульева. – СПб.: Питер, 2003. 160 с. 10. Плохинский Н.А. Биометрия. 2-е изд. – М.: МГУ, 1970. 368 с. 11. Рунион Р. Справочник по непараметрической статистике. – М.: Финансы и статистика, 1982. 198 с. 12. Свердан П.Л. Вища математика. Аналіз інформації у фармації та медицині: Підручник. – Львів:Світ, 1998. 332с. 13. Сидоренко Е.В. Методы математической обработки в психологии. – СПб.: ООО «Речь», 2000. 350 с. 164
14. Суходольский Г.В. Основы математической статистики для психологов. – Л.: ЛГУ, 1972. 428 с. 15. Тюрин Ю.Н., Макаров АЛ, Анализ данных на компьютере. / Под ред. В.В. Фигурнова. – М.: Финансы и статистика, 1995. 384 с. 16. Урбах В.Ю. Статистический анализ в биологических и медицинских исследованиях. – М.: Медицина, 1975. 295 с. 17. Хеттманспергер Т. Статистические выводы основанные на рангах. / Пер. с англ. Д.С.Шмерлинга. – М.:Финансы и статистика, 1987, 334с. 18. Холлендер М. Вулф Д.А. Непараметрические методы статистики. / Пер. с англ. под ред. Ю.П. Адлера и Ю.Н. Тюрина – М.: Финансы и статистика, 1983. 518 с. 19. Bech, P. Rating scales for Psychopathology, Health Status and Quality of Life. Berlin, Heidelberg, New York, Springer–Verlag; 1993. pp. 325–340. 20. Howell D. Statistical methods for psychology (5th Edition). – Belmont, CA: Duxbury. 2002, 816 p. 21. Skillings J.H. On the null distribution of Jonkheere’s statistic used in two-way models for ordered alternatives. // Technometrics, 1980. – V. 22. pp. 431–436.
165
Зміст Вступ ........................................................................................................................3 І. Основи теорії ймовірностей...............................................................................................5 Імовірність події. ...............................................................................................................5 Формула повної ймовірності . ..........................................................................................9 Формули Байєса .............................................................................................................. 12 Задачі до розділу І........................................................................................................... 13 ІІ. Випадкова величина . ..................................................................................................... 15 Поняття випадкової величини....................................................................................... 15 Функція розподілу випадкової величини. .................................................................... 17 Щільність розподілу неперервно розподіленої випадкової величини. ..................... 19 Характеристики розподілу випадкової величини........................................................ 21 Математичне сподівання випадкової величини...................................................... 21 Дисперсія та стандартне відхилення випадкової величини. Асиметрія і ексцес. 23 Квантилі. ..................................................................................................................... 25 Деякі дискретні розподіли . ............................................................................................ 25 Розподіл Бернуллі. ..................................................................................................... 25 Біномний розподіл. .................................................................................................... 26 Розподіл Пуассона. .................................................................................................... 27 Деякі неперервні розподіли . .......................................................................................... 27 Рівномірний розподіл . ............................................................................................... 27 Експонентний розподіл . ............................................................................................ 28 Нормальний розподіл . ............................................................................................... 28 Апроксимаційні формули Муавра-Лапласа. ................................................................ 31 Локальна теорема Муавра-Лапласа . ........................................................................ 31 Інтегральна теорема Муавра-Лапласа . .................................................................... 31 Деякі закони розподілу статистик ................................................................................. 32 Розподіл χ2 .................................................................................................................. 32 Розподіл Стьюдента . ................................................................................................. 32 Розподіл Фішера-Снедекора ..................................................................................... 33 Двовимірна випадкова величина................................................................................... 33 Функція розподілу двовимірної випадкової величини . ......................................... 33 Умовні закони розподілу. .......................................................................................... 36 Коваріація і коефіцієнт кореляції . ........................................................................... 37 Коваріаційна матриця і матриця парних кореляцій . .............................................. 41 Граничні закони теорії ймовірностей. .......................................................................... 42 Нерівність Чебишева. ................................................................................................ 42 Теорема Чебишева. .................................................................................................... 43 Закон Бернуллі............................................................................................................ 44 Теорема Ляпунова . .................................................................................................... 44
166
Задачі до розділу ІІ.......................................................................................................... 45 ІІІ. Елементи математичної статистики. ........................................................................... 51 Генеральна сукупність і вибірка.................................................................................... 51 Дискретний варіаційний ряд . ........................................................................................ 52 Інтервальний варіаційний ряд ....................................................................................... 53 Точкові та інтервальні оцінки ....................................................................................... 55 Поняття про статистичну перевірку гіпотез . ............................................................... 59 Задачі до розділу ІІІ. . ..................................................................................................... 61 ІV. Методи математичної обробки даних у психології . ................................................. 63 Ознаки і змінні. Шкали вимірювання ознак . ............................................................... 63 Перевірка гіпотези про однорідність вибірки.............................................................. 66 Перевірка гіпотези про узгодженість розподілів......................................................... 67
ч 2 критерій Пірсона .................................................................................................. 68 Критерій Колмогорова . ............................................................................................. 72 Критерій Смирнова . .................................................................................................. 74 Перевірка гіпотези про рівність двох дисперсій.......................................................... 76 Виявлення відмінностей у рівні досліджуваної ознаки. ................................................ 77 Критерій Розенбаума. ................................................................................................ 77 Критерій Манна-Уітні . .............................................................................................. 78 Критерій Стьюдента . ................................................................................................. 80 Перевірка наявності зсуву у значеннях досліджуваної ознаки.................................. 85 Критерій знаків ........................................................................................................... 85 Критерій Вілкоксона . ................................................................................................ 86 Парний t-тест Стьюдента . ......................................................................................... 88 Перевірка впливу фактора на зміну рівня. ................................................................... 89 досліджуваної ознаки. .................................................................................................... 89 Критерій Краскела-Уоллеса...................................................................................... 90 Критерій тенденцій Джонкхієра . ............................................................................. 92 Критерій Фрідмана . ................................................................................................... 94 Критерій тенденцій Пейджа...................................................................................... 96 Однофакторний дисперсійний аналіз . ..................................................................... 98 Перевірка наявності зв’язку між двома ознаками . ................................................... 101 Зв'язок ознак, виміряних у номінативних шкалах. ............................................... 102 Зв'язок ознак, виміряних у порядкових шкалах . .................................................. 105 Зв'язок ознак, виміряних в інтервальних шкалах. ................................................ 110 Задачі до розділу ІV. . ................................................................................................... 112 Д о д а т о к 1: Деякі статистичні таблиці. ................................................................... 123 Щільність стандартного нормального розподілу. ................................................ 123 Значення функції Лапласа....................................................................................... 124 Критичні значення критеріїв Діксона. ................................................................... 125
167
2
Критичні значення розподілу . ......................................................................... 126 Критичні значення розподілу Фішера-Снедекора. ............................................... 127 Критичні значення критерію Розенбаума.............................................................. 128 Критичні значення критерію Манна-Уітні............................................................ 129 Критичні значення критерію знаків. ...................................................................... 132 Критичні значення критерію Вілкоксона .............................................................. 133 Критичні значення критерію Краскела-Уоллеса. ................................................. 134 Критичні значення критерію Джонкхієра ............................................................. 135 Критичні значення критерію Фрідмана. ................................................................ 136 Критичні значення критерію Пейджа. ................................................................... 137 Критичні значення рангового коефіцієнта кореляції Спірмена . ........................ 138 Д о д а т о к 2: Елементи вищої математики. ............................................................... 139 Матриці, визначники, системи лінійних рівнянь....................................................... 139 Поняття матриці. Операції над матрицями. .......................................................... 139 Визначник матриці. Обернена матриця. ................................................................ 141 Системи лінійних алгебричних рівнянь . ............................................................... 145 Вступ до математичного аналізу................................................................................. 146 Числові послідовності та їх границі . ..................................................................... 147 Границя функції в точці. Односторонні границі. ................................................. 148 Неперервність функції . ........................................................................................... 149 Диференціальне числення функцій однієї змінної . .................................................. 150 Похідна функції в точці. .......................................................................................... 150 Диференційовність функції..................................................................................... 151 Монотонність функції. Екстремуми . ..................................................................... 152 Похідні вищих порядків . ......................................................................................... 152 Інтегральне числення функцій однієї змінної............................................................ 153 Первісна функції. Невизначений інтеграл............................................................. 153 Визначений інтеграл. ............................................................................................... 155 Невластиві інтеграли . .............................................................................................. 157 Частинні похідні функцій багатьох змінних.............................................................. 158 Д о д а т о к 3: Деякі команди Maple 8. ........................................................................ 159 Алфавітний покажчик . ..................................................................................................... 162 Література . ......................................................................................................................... 164
168
Навчальне видання
Бабенко Володимир Володимирович
ОСНОВИ ТЕОРІЇ ЙМОВІРНОСТЕЙ І СТАТИСТИЧНІ МЕТОДИ АНАЛІЗУ ДАНИХ У ПСИХОЛОГІЧНИХ І ПЕДАГОГІЧНИХ ЕКСПЕРИМЕНТАХ
Підписано до друку різогр. Умовн. друк. арк.
. . 2006. Формат 6084/16. Папір друк. №3. Друк. . Тираж 1000. Зам.
.
Видавничий центр Львівського національного університету імені Івана Франка 79000 Львів, вул. Дорошенка, 41.
169