519.2(07) M545
№ 3179
Составители: И.П.Фирсов, О.С. Семерий
ТАГАНРОГСКИЙ ГОСУДАРСТВЕННЫЙ РАДИОТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ...
67 downloads
166 Views
736KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
519.2(07) M545
№ 3179
Составители: И.П.Фирсов, О.С. Семерий
ТАГАНРОГСКИЙ ГОСУДАРСТВЕННЫЙ РАДИОТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ
Методические указания к лабораторным работам по математической статистике с применением ЭВМ. Таганрог: Изд-во ТРТУ, 2001, 66 с.
КАФЕДРА ВЫСШЕЙ МАТЕМАТИКИ
МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ
УДК 519.22(07.07)
Методические указания предназначены для студентов второго курса всех специальностей, изучающих математическую статистику. Целью работы является обучение студентов решению задач математической статистики с использованием математических пакетов Maple, Mathematica, Matlab и Mathcad. Указания содержат теоретические сведения, необходимые при подготовке к лабораторным работам, варианты заданий и контрольные вопросы для самопроверки, а также, примеры решения задач с помощью указанных пакетов.
МЕТОДИЧЕСКИЕ УКАЗАНИЯ к лабораторным работам по
математической статистике с применением ЭВМ для студентов II курса всех специальностей ЕГФ
Табл. 3. Библиогр.: 3 назв. Рецензент: А.А. Афонин, канд. физ.-мат. наук, доцент кафедры высшей математики ТРТУ.
ЕГФ ТАГАНРОГ 2001 2
Введение
1. Equation Section 1Метод наименьших квадратов
Статистические расчеты без помощи ЭВМ являются сложными и требуют применения многочисленных таблиц функций и квантилей стандартных распределений. Поэтому они не дают возможности почувствовать элемент новизны в изучаемом материале, изменять произвольно условия задач и т.д. Специализированные математические пакеты не могут использоваться для обучения, т.к. их использование требует достаточно высокого уровня подготовки в математической статистике. Поэтому в данных указаниях предлагается использовать универсальные математические пакеты Maple 6, Mathematica 3, Matlab 5.3 и Mathcad 7 Professional. Весь материал разбит на шесть лабораторных работ. На каждом занятии студент получает индивидуальное задание, которое выполняет самостоятельно под руководством преподавателя. В конце каждой лабораторной работы приведены варианты заданий, контрольные вопросы и примеры, демонстрирующие способы решения поставленных задач с помощью математических пакетов. Таким образом, методические указания позволяют, во-первых, интенсифицировать практическую составляющую обучения математической статистике и, во-вторых, обучить студентов навыкам использования основных универсальных математических пакетов. Преподаватель может организовать выполнение лабораторных работ следующим образом: первые три работы – на математическом пакете Maple, оставшиеся лабораторные работы – на других пакетах; либо все работы – на каком-либо одном математическом пакете. При этом, даже в последнем случае студенты получат навыки работы со всеми пакетами, так как решение задачи подробно разбирается только на одном математическом пакете, для каждой лабораторной – своём. Методические указания могут также быть использованы для проведения практики по теории вероятностей и статистике параллельно – первую на практических занятиях, а вторую на лабораторных, поскольку применение математических пакетов значительно сократит время на решение задач статистики. С этой целью в указаниях приводятся необходимые теоретические сведения по математической статистике.
Пусть на вход некоторого устройства подается сигнал x , а на выходе измеряется сигнал y . Известно, что величины x и y связаны функциональной зависимостью, но какой именно – неизвестно. Требуется приближенно определить эту функциональную зависимость y = ϕ ( x ) по опытным данными. Пусть в результате n измерений получен ряд экспериментальных точек ( xi , yi ) . Известно, что через n точек можно всегда провести кривую, аналитически выражаемую многочленом ( n − 1) -й степени. Этот многочлен называют интерполяционным. И вообще, замену функции ϕ ( x ) на функцию ψ ( x ) так, что их значения совпадают в заданных точках ϕ ( xi ) = ψ ( xi ) , i = 1, 2,..., n ,
(1.1)
называют интерполяцией. Однако такое решение проблемы не является удовлетворительным, поскольку yi ≠ ϕ ( xi ) из-за случайных ошибок измерения и влияния на измерения значений yi помех и шумов в устройстве. Так что yi = ϕ ( xi ) + δ i ,
(1.2)
где δ i – некоторая случайная ошибка. Поэтому требуется провести кривую так, чтобы она в наименьшей степени зависела от случайных ошибок. Эта задача называется сглаживанием (аппроксимацией) экспериментальной зависимости и часто решается методом наименьших квадратов. Сглаживающую кривую называют аппроксимирующей. Задача аппроксимации решается следующим образом. В декартовой прямоугольной системе координат наносят точки ( xi , yi ) . По расположению этих точек высказывается предположение о принадлежности искомой функции к определенному классу функций. Например, линейная функция ϕ ( x ) = a0 + a1 x , квадратичная ϕ ( x ) = a0 + a1 x + a2 x 2 и т.д. В общем случае ϕ ( x ) = ϕ ( x, a0 , a1 ,..., ar ) . Неизвестные параметры функции a0 , a1 ,..., ar определяются из требования минимума суммы квадратов случайных ошибок, т.е. минимума величины n
n
i =1
i =1
δ = ∑ δ i2 = ∑ ( yi − ϕ ( xi , a0 , a1 ,..., ar ) ) .
3
2
(1.3)
Величина δ называется также суммарной невязкой. Необходимым условием минимума функции нескольких переменных является обращение в нуль частных производных невязки: 4
n
∑( y i =1
i
− ϕ ( xi , a0 , a1 ,..., ar ) )
∂ϕ = 0 , j = 0,1,..., r . ∂ aj
(1.4)
Решая систему уравнений (1.4), находим неизвестные параметры a j и тем самым полностью определяем функцию, которая наилучшим образом (в смысле наименьших квадратов отклонений от исходных точек или наименьшей суммарной невязки) аппроксимирует (приближает) искомую функцию ϕ ( x ) . Остановимся подробнее на линейной зависимости ϕ ( x ) = a0 + a1 x . Дифференцируя (1.3), получим следующую систему уравнений ⎧ n ⎪∑ ( yi − a0 − a1 xi ) = 0, ⎪ i =1 (1.5) ⎨ n ⎪ ( y − a − a x ) x = 0. 0 1 i i i ⎪⎩∑ i =1 Из первого уравнения находим a0 = My − a1 Mx , где 1 n 1 n xi , My = ∑ yi . ∑ n i =1 n i =1 Подставляя выражение для a0 во второе уравнение, найдем Mx =
a1 =
Kxy , S2
(1.6)
(1.7)
где Kxy =
1 n 1 n 2 ( xi − Mx )( yi − My ) , S 2 = ∑ ( xi − Mx ) . ∑ n i =1 n i =1
(1.8)
Таким образом, Kxy ⎛ ⎞ Kxy Mx ⎟ + 2 x (1.9) S2 ⎝ ⎠ S есть искомая линейная функция. Ввиду простоты расчетов аппроксимация линейной зависимости используется довольно часто. Кроме того, многие функции, зависящие от двух параметров, можно линеаризовать путем замены переменных. Для этого необходимо подобрать такое преобразование исходной зависимости y ( x ) = ϕ ( x, a0 , a1 ) , в результате которого она приобретает
ϕ ( x ) = ⎜ My −
линейный вид v = b0 + b1 ⋅ u . Далее решается задача линейной аппроксимации для новой зависимости и вычисленные коэффициенты b0 и b1 пересчитываются в коэффициенты a0 и a1 . Для ряда часто встречающихся двухпараметрических зависимостей возможные замены переменных (а также, обратные замены для 5
пересчета b0 и b1 в a0 и a1 ) приведены в табл. 1.1. Таблица 1.1. Вид зависимости Гиперболическая a y = a0 + 1 x Логарифмическая y = a0 + a1 ln x
Замена переменных 1 x
v=y
u=
v=y
u = ln x
Показательная y = a0 ea1 x
v = ln y
Степенная y = a0 x a1
v = ln y
Комбинированная 1 y = a0 + a1e − x
Ограничения
u=x
Обратная замена переменных
x≠0
a0 = b0
a1 = b1
x>0
a0 = b0
a1 = b1
y>0
a0 = eb0
a1 = b1
a0 = eb0
a1 = b1
a0 = b0
a1 = b1
a0 > 0 x>0 y>0
u = ln x
a0 > 0 v=
1 y
y≠0
u = e− x
Следующие примеры реализуют аппроксимацию нелинейной зависимости методом наименьших квадратов с помощью универсальных математическх пакетов.
Пример 1.1 (Maple) Подготовка к работе, подключение статистических библиотек > restart: with(stats): randomize(): Размерность списков с экспериментальными точками > n:=10: Список с точками прообраза экспериментальной зависимости > X:=evalf([i $i=1..n]); X := [ 1., 2., 3., 4., 5., 6., 7., 8., 9., 10. ] Вид исходной зависимости y ( x ) > y:=x->a[0]+a[1]/x; y := x → a0 +
a1 x
Параметры зависимости y ( x ) и шума > a[0]:=2: a[1]:=-1: mu:=0: sigma:=0.1: 6
Список с точками исходной зависимости > Z:=map(y,X): Список с точками нормального шума > W:=[random[normald[mu,sigma]](n)]: Список с точками образа экспериментальной зависимости Y ( X ) > Y:=Z+W: Графики исходной y ( x ) и экспериментальной зависимости Y ( X ) > pXY:=[[X[i],Y[i]] $i=1..n]: XRange:=x=X[1]..X[n]: > arg2:=color=[blue,red],style=[point,line], symbol=circle: > pic1:=plot([pXY,y(x)],XRange,arg2,labels=[x,y]): > pic1;
Линеаризация экспериментальной зависимости Y ( X ) > f1u:=x->1/x: f1v:=y->y: > U:=map(f1u,X): V:=map(f1v,Y): График линеаризованной зависимости U (V ) > pUV:=[[U[i],V[i]] $i=1..n]: > pUZ:=[[U[i],Z[i]] $i=1..n]: > plot([pUV,pUZ],arg2,labels=['U','V']);
Вычисление вспомогательных величин > Mu:=1/n*sum(U[i],i=1..n); Μ := .2928968254 > Mv:=1/n*sum(V[i],i=1..n); Mv := 1.676928568 > Kuv:=1/n*sum((U[i]-Mu)*(V[i]-Mv),i=1..n); Kuv := -.06733231929 > S2:=1/n*sum((U[i]-Mu)^2,i=1..n); S2 := .06918822278
Вычисление параметров линеаризованной зависимости U (V ) > b[1]:=Kuv/S2: b[0]:=Mv-b[1]*Mu: Вычисление невязки для линеаризованной зависимости U (V ) > delta:=sum((V[i]-(b[0]+b[1]*U[i]))^2,i=1..n); δ := .1395645549 Обратный переход к экспериментальной зависимости Y ( X ) > ae[0]:=b[0]: ae[1]:=b[1]: Оценка исходной зависимости ϕ ( x ) > phi:=x->ae[0]+ae[1]/x: y=phi(x); .9731760202 y = 1.961968735− x Вычисление невязки для оценки исходной зависимости ϕ ( x ) > delta1:=sum((Y[i]-phi(X[i]))^2,i=1..n); δ1 := .1395645549 Проверка решения > fit[leastsquare[[x,y],y=a0+a1*1/x]]([X,Y]); .9731760203 y = 1.961968735− x Графики зависимостей Y ( X ) , y ( x ) и ϕ ( x ) > pic2:=plot(phi(x),XRange,color=black): > plots[display](pic1,pic2);
Применяем метод линейной аппроксимации к зависимости U(V) 7
8
Пример 1.2 (Mathematica)
Решение для другой предполагаемой нелинейности > phi2:=x->1/(c[1]+c[2]*exp(-x)); 1 φ2 := x → ( −x ) c1 + c2 e > f2u:=x->exp(-x): f2v:=y->1/y: Оценка исходной зависимости > psi:=rhs(fit[leastsquare[[x,y],y=b0+b1*x]]( [map(f2u,X),map(f2v,Y)])); ψ := .5359537861+ 1.566474743x
Параметры оценки исходной зависимости ϕ 2 ( x ) > c:=[coeffs(psi)]; c := [ .5359537861, 1.566474743] Вычисление невязки для оценки исходной зависимости ϕ 2 ( x ) > delta2:=sum((Y[i]-phi2(X[i]))^2,i=1..n); δ2 := .2296252509 Графики зависимостей Y ( X ) , y ( x ) и ϕ 2 ( x ) > pic3:=plot(phi2(x),XRange,color=black): > plots[display](pic1,pic3);
9
{Blue,PointSize[.03]}]; p2=ListPlot[pUZ,PlotStyle->{Red}, PlotJoined->True]; Show[{p1,p2}]; Mu=1/n*Apply[Plus,U] Mv=1/n*Apply[Plus,V] Kuv=1/n*Apply[Plus,(U-Mu)*(V-Mv)] S2=1/n*Apply[Plus,(U-Mu)^2] b[1]=Kuv/S2; b[0]=Mv-b[1]*Mu; delta=Apply[Plus,(V-(b[0]+b[1]*U))^2] ae[0]=b[0]; ae[1]=b[1]; phi[x_]:=ae[0]+ae[1]/x; y2=phi[x] delta1=Apply[Plus,(Y-phi[X])^2] Fit[pXY,{1,1/x},x] p2=Plot[y2,{x,X[[1]],X[[n]]}]; Show[{pic1,p2}]; f2u[x_]:=Exp[-x]; f2v[y_]:=1/y; U=Map[f2u,X]; V=Map[f2v,Y]; pUV=Transpose[{U,V}]; psi=Fit[pUV,{1,x},x] c=CoefficientList[psi,x] phi2[x_]:=1/(c[[1]]+c[[2]]*Exp[-x]); y3=phi2[x] delta2=Apply[Plus,(Y-phi2[X])^2] p2=Plot[y3,{x,X[[1]],X[[n]]}]; Show[{pic1,p2}];
10
Пример 1.3 (Matlab)
Y := Z + W
n=10; X=1:10 a0=2; a1=-1; mu=0; sigma=0.1; y=inline('a0+a1*1./x','x','a0','a1'); Z=y(X,a0,a1); W=normrnd(mu,sigma,1,n); Y=Z+W; x1=X(1):0.1:X(n); y1=y(x1,a0,a1); plot(X,Y,'bo',x1,y1,'r'), pause U=1./X; V=Y; plot(U,V,'bo',U,Z,'r'), pause Mu=1/n*sum(U) Mv=1/n*sum(V) Kuv=1/n*sum((U-Mu).*(V-Mv)) S2=1/n*sum((U-Mu).^2) b1=Kuv/S2, b0=Mv-b1*Mu delta=sum((V-(b0+b1*U)).^2) ae0=b0, ae1=b1 delta1=sum((Y-y(X,ae0,ae1)).^2) y2=y(x1,ae0,ae1); plot(X,Y,'bo',x1,y1,'r',x1,y2,'k'), pause phi2=inline('1./(c1+c2*exp(-x))','x','c2','c1'); U=exp(-X); V=1./Y; c=polyfit(U,V,1) delta2=sum((Y-phi2(X,c(1),c(2))).^2) y3=phi2(x1,c(1),c(2)); plot(X,Y,'bo',x1,y1,'r',x1,y3,'k')
2.5
a := 2
a := −1
0
a 0
( i)
Z := y X
i
T
0
X = 0
1
1
2
2 3
3 4
4 5
σ := 0.1
μ := 0
1
y ( x) := a + i
X := i + 1
i := 0 .. n − 1
2
y ( x)
1
f1u( x) :=
1.5
Yi
f1v( y ) := y
x U := f1u X
1
( i)
i
0.5
5
( i)
V := f1v Y i
10
x, Xi 2.5
Mu :=
2
Zi
n
∑ Ui i
∑
1 0.5
1
Mu = 0.293 1 Mv := ⋅ V i n
1.5
Vi
i
0
0.5
1
Mv = 1.7
Ui , Ui
1
Kuv :=
S2 :=
Пример 1.4 (Mathcad) n := 10
T
Y = 0.956 1.432 1.619 1.655 1.631 1.838
b :=
1 n
⋅
⋅
∑ (Ui − Mu )⋅(Vi − Mv )
Kuv = −0.078
i
∑ (Ui − Mu )
2
S2 = 0.069
i
Kuv
1
δ :=
n
S2
b = −1.131 1
∑ ⎡⎣Vi − (b0 + b1⋅Ui)⎤⎦
2
b := Mv − b ⋅ Mu 0
1
b = 2.031 0
δ = 0.092
i
1
ae
x T
Z =
W := rnorm( n , μ , σ)
ae := b 0
1
1.5 1.667 T
1.75
0
ae := b 1
φ( x) := ae +
1
0
δ1 :=
2 ∑ (Yi − φ( Xi))
δ1 = 0.092
i
11
x
1.8 1.833 1.857
W = -0.044 -0.068 -0.047 -0.095 -0.169
12
F1( x) := ⎛⎜ 1
⎝
1
⎞ ⎟ x⎠ 1
T
linfit( X , Y , F1) =
⎛ 2.031 ⎞ ⎜ ⎟ ⎝ −1.131 ⎠
f2u( x) := exp( −x)
( (
Yi
2
1 y
T
1.5
φ( x)
1 0.5
) )
⎯⎯→ U := reverse f2u( X) ⎯⎯→ V := reverse f2v( Y)
2.5
y ( x)
f2v( y ) :=
5
10
F( x) := ( 1 x ) c := linfit( U , V, F) ⎛ 0.536 ⎞ c=⎜ ⎟ ⎝ 1.375 ⎠ 1 φ2( x) := −x c + c ⋅e 0
x, Xi , x
δ2 :=
2.5
Контрольные вопросы 1. Что такое интерполяция и аппроксимация? Чем они отличаются? 2. В чем заключается метод наименьших квадратов? 3. Являются ли необходимые условия минимизации (1.5) также и достаточными? 4. В каком случае можно линеаризовать аппроксимирующую кривую? 5. С какой целью и каким образом проводится линеаризация?
1
∑ (Yi − φ2( Xi))
Считая, что зависимость между переменными x и y имеет вид 2
i y ( x)
δ2 = 0.138
2
Yi φ2( x) 1.5
1
5
Поскольку вид зависимости первоначально неизвестен, следует проделать вычисления для всех пяти зависимостей и выбрать ту из них, которая обеспечивает наименьшую из всех вычисленных суммарную невязку δ . Эти данные заносятся в протокол выполнения работы и служат основанием для составления отчета с выводами по работе.
10
x, Xi , x
y = β 0 + β1 x + β 2 x 2 , в задачах 6 и 7 найти оценки параметров по следующим выборкам (Задачи № 7.1 и 7.4 гл.15 [2]). 6. x 0 2 4 6 8 10 y 5 -1 -0,5 1,5 4,5 8,5 7. x -2 -1 0 1 2 y 4,8 0,4 -3,4 0,8 3,2
В задачах 8 и 9 найти оценки параметров β 0 и β1 , считая, что зависимость между переменными
Задание В табл. 1.2 (см. ниже) приведены экспериментально полученные точки, определяющие зависимость между переменными x и y по одной из пяти функций, приведенных в табл. 1.1. Необходимо на одном из математических пакетов реализовать линеаризацию зависимости, подобрать параметры a0 и a1 по методу наименьших квадратов и проверить правильность вычислений с помощью известной зависимости (см. примеры 1.1-1.4). Правильно составленный документ будет давать пренебрежимо малую невязку в том случае, когда значения Y вычисляются точно по заданной зависимости (ошибки будут возникать только за счет округлений при вычислении). 13
(Задачи № 7.5 и 7.6 гл.15 [2]). 8. x 2 y 8 9. x 5,67 4,45 y 6,8 8,5
x
4 5,25 3,84 10,5
14
и
y
имеет вид
y = β0 +
6 3,50
12 3,25
3,74 10,2
3,73 6,8
2,18 11,8
β1 x
1 2 3 4 5
х -1 у -6,78 х 0,01 у 34,23 х -2 у 16 х 0,3 у 15,33
-0,55 -0,1 -,35 0,8 1,25 1,7 -6,56 -6,14 -5,31 -3,68 -0,85 5,81 0,56 5,97
1,11 1,28
Таблица 1.2 2,15 2,6 3,05 18,15 42,4 90,03
1,66 2,21 2,28 3,3 3,85 4,4 4,95 -1,54 -3,54 -5,09 -6,36 -7,44 -8,37 -9,2
-1,6 -1,2 10,24 5,76
-0,8 2,56
-0,4 0,53
0 0
0,4 0,64
0,8 2,56
1,2 5,76
1,57 4,55
4,11 2,97
5,38 2,74
6,65 2,6
7,92 2,59
9,19 2,44
10,46 11,73 2,38 2,34
-0,95 -0,1 0,12 0,19
0,75 0,2
1,6 0,29
2,45 0,31
3,3 4,15 0,325 0,33
4,86 0,74
5,65 1,3
6,43 1,58
2,84 3,41
1,6 10,24
х -3,5 у 0,01 х 0,15 у -9,69
-2,65 -1,8 0,03 0,07 0,94 -4,2
1,72 2,51 3,29 4,08 -2,37 -1,25 -0,43 0,21
х 0,35 у 6,86 х -1 у 4,14
0,82 5,23
1,28 4,78
1,75 4,57
2,21 4,45
2,675 3,14 4,37 4,35
3,605 4,07 4,28 4,25
4,535 4,22
-0,8 4,2
-0,6 4,3
-0,4 4,45
-0,2 4,67
0,0 5
0,4 6,85
0,8 8,95
х 2 у 2,67 10 х -5 у 0,01
2,3 4,06
2,6 6,16
2,9 8,13
3,2 3,5 3,8 4,1 4,4 4,7 10,92 14,29 18,29 22,97 28,39 34,6
-4 0,02
-3 0,05
-2 0,11
-1 0,21
0 0,38
1 0,42
2 0,47
3 0,49
4 0,5
11 х у 12 х у 13 х у 14 х у 15 х у
1,21 3,39
1,47 2,19
1,74 1,34
2,0 0,88
2,26 0,61
2,52 0,54
2,78 0,33
3,05 0,28
3,31 0,19
0,35 0,82 16,99 8,83
1,28 6,61
1,75 5,56
2,21 4,96
2,68 4,62
3,14 4,29
3,61 4,09
4,07 3,93
4,535 3,8
-1,7 -1,43 -1,16 -0,89 -0,62 -0,35 -0,08 0,19 0,46 26,96 14,46 7,17 2,92 0,45 -0,98 -1,35 -2,31 -2,6
0,73 -2,77
-5 0
-3,5 0,01
-2 0,06
-0,5 0,28
1 0,87
2,5 2,05
4 2,92
5,5 3,23
7 3,31
8,5 3,33
-2 6,8
-1,4 3,33
-0,8 1,09
-0,2 0,02
0,4 0,27
1,0 1,7
1,6 4,35
2,2 8,23
2,8 3,4 13,33 19,65
6 7 8 9
0,95 8,16
15
0,2 5,49
0,6 7,32
7,22 1,93
16 х у 17 х у 18 х у 19 х у 20 х у 21 х у 22 х у 23 х у 24 х у 25 х у 26 х у 27 х у 28 х у 29 х у 30 х у
0,4 0,86 1,32 -20,5 -11,2 -8,3
1,78 2,24 -6,93 -6,5
Табл. 1.2 (продолжение) 2,7 3,16 3,62 4,08 4,54 -5,59 -5,3 -4,93 -4,83 -4,54
0,01 0,51 -1,14 2,39
1,52 3,37
2,51 3,83
1,01 3,01
2,01 3,63
3,0 3,99
3,05 4,13
-5 0
-3,91 -2,82 -1,73 -0,64 0,45 1,54 -0,01 -0,01 -0,03 -0,07 -0,18 -0,2
-2,1 0,28
-1,79 -1,48 -1,17 -0,86 -0,55 -0,24 0,07 0,29 0,3 0,32 0,36 0,48 0,78 1,52
0,01 0,53 15,22 3,31
1,05 1,26
0 0,3
0,8 1,2 11,37 14,5
0,4 7,5
1,57 0,05
4,0 4,25
4,5 4,35
2,63 3,72 4,81 -0,23 -0,24 -0,25 0,38 3,41
0,69 8,21
2,09 2,61 3,12 3,64 4,16 4,68 -0,81 -1,74 -2,17 -2,48 -2,88 -3,23 1,6 2,0 17,24 19,9
2,4 2,8 3,2 3,6 21,98 24,11 26,12 28,04
-4 -3,01 -2,02 -1,03 -0,04 0,95 1,94 2,93 3,92 4,91 -0,02 -0,05 -0,12 -0,26 -0,49 -0,72 -0,87 -0,94 -0,98 -0,99 0,4 1,8
0,81 0,53
1,22 0,12
1,5 2,04 2,45 2,86 3,27 3,68 4,09 -0,09 -0,21 -0,31 -0,35 -0,39 -0,43 -0,46
-1 -0,72 -0,44 -0,17 0,12 -4,95 -4,89 -4,74 -4,39 -3,6
0,39 0,67 -1,93 2,42
0,95 1,22 1,5 12,08 34,33 85,55
0,01 0,51 -4,76 2,29
2,51 5,06
3,51 5,76
1,01 3,52
1,51 4,24
2,01 4,76
3,01 5,48
4,01 6,0
4,51 6,21
-5 -3,95 -2,9 -0,01 -0,03 -0,8
-1,85 -0,8 0,25 1,3 2,35 3,4 4,45 -0,2 -0,49 -0,96 -1,45 -1,76 -1,91 -1,97
0,5 2,41
1,4 3,32
3,2 4,3
0,11 6,27
0,499 0,89 0,6 -0,1
0,01 8,82
0,59 1,17 1,75 2,33 2,91 -3,41 -5,93 -6,67 -7,53 -8,2
2,3 4,1
4,1 4,64
5,0 4,94
5,9 5,0
6,8 5,43
7,7 5,64
8,6 5,84
1,28 1,67 2,055 2,44 2,83 3,22 3,61 -0,37 -0,52 -0,61 -0,67 -0,69 -0,75 -0,78 3,48 4,06 4,64 5,22 -8,74 -9,15 -9,61 -9,96
-2 -1,62 -1,24 -0,87 -0,49 -0,11 0,27 37,63 19,33 10,19 5,55 3,21 2,02 1,64
16
0,65 1,11
1,02 0,96
1,4 0,88
2. Equation Section (Next)Оценка функции и плотности распределения случайной величины Различают дискретные и непрерывные случайные величины. Например, число попаданий в цель при n выстрелах есть дискретная случайная величина ξ . Ее возможные значения 0,1, 2,K , n . Ошибка при измерении тока или напряжения – пример непрерывной случайной величины. Совокупность всех возможных значений xi дискретной случайной величины и соответствующих вероятностей pi = p (ξ = xi ) на-
зывают рядом распределения. Как дискретная, так и непрерывная случайные величины могут быть заданы функцией распределения F ( x ) = p (ξ < x ) . (2.1) Функция F ( x ) монотонно возрастает на всей числовой оси, причем F ( −∞ ) = 0 , F ( +∞ ) = 1 . Плотностью распределения случайной вели-
чины ξ называют функцию f ( x) = F ′( x) .
(2.2)
Если плотность распределения определяется формулой ⎛ ( x − μ )2 ⎞ 1 ⎟, (2.3) f ( x) = exp ⎜ − 2 ⎜ ⎟ σ 2 2πσ 2 ⎝ ⎠ то говорят, что случайная величина ξ распределена по нормальному Можно доказать, что случайная величина n
(2.4)
i =1
где ξi – независимые случайные величины, распределенные по нор-
мальному закону N ( 0,1) , распределена по закону Пирсона (или по за-
кону χ 2 ) с n степенями свободы. Ее плотность распределения задается формулой −1
∞ ⎛ n ⎛ n ⎞ ⎞ n−2 − x f ( x ) = ⎜ 2 2 Γ ⎜ ⎟ ⎟ x 2 e 2 , Γ ( u ) = ∫ e− x xu −1dx , (2.5) ⎝ 2 ⎠⎠ ⎝ 0 где Γ ( u ) – гамма-функция; a Γ ( u + 1) = uΓ ( u ) – основное ее свойство.
17
ξ n χ n2
, где ξ – случайная величина, рас-
пределенная по нормальному закону N ( 0,1) , а χ n2 – случайная величина, распределенная по закону Пирсона, будет распределена по закону Стьюдента с n степенями свободы. Ее плотность распределения задается формулой ⎛ n +1⎞ n +1 Γ⎜ − ⎟ 2 ⎠ ⎛ t2 ⎞ 2 ⎝ . (2.6) f (t ) = ⎜1 + ⎟ n⎠ ⎛n⎞ ⎝ Γ⎜ ⎟ π n ⎝ 2⎠ Можно отметить, что распределения χ n2 и Стьюдента стремятся к нормальному распределению при n → ∞ . Если закон распределения случайной величины ξ неизвестен, то его можно приближенно определить (оценить) опытным путем. С этой целью над величиной ξ проводят ряд независимых испытаний (измерений). Вся мыслимая (бесконечная) совокупность этих измерений называется генеральной совокупностью, а каждый конкретный ряд измерений ( x1 , x2 ,..., xn ) называют простой случайной выборкой. Если повторить измерения той же случайной величины ξ , то в силу наличия случайных ошибок мы получим несколько другие значения ( x1′, x2′ ,..., xn′ ) . Поэтому сами измерения нужно рассматривать как случайные величины, распределенные по одному и тому же закону, совпадающему с законом распределения случайной величины ξ . Функцию
закону N ( μ , σ ) , где μ и σ – некоторые параметры.
χ n2 = ∑ ξ i2 ,
Случайная величина tn =
распределения F ( x ) случайной величины ξ
называют функцией
распределения генеральной совокупности. Если простую выборку упорядочить по возрастанию, то ее называют вариационным рядом. Если для каждого неповторяющегося элемента вариационного ряда xi указать относительную частоту его mi , то такой вариационный ряд называют статистиn ческим рядом распределения случайной величины ξ . Здесь mi – число повторений xi (абсолютная частота появления элемента), а n – общее число измерений, или объем выборки. Имея вариационный ряд, легко построить эмпирическую (статистическую) функцию распределения
появления pi∗ =
18
mx . (2.7) n Здесь mx – число членов вариационного ряда, лежащих левее от x , Fn ( x ) =
а m x n – частота попадания выборочного значения левее x ; F n ( x ) – ступенчатая неубывающая функция, заданная на всей числовой оси, со скачками в точках xi . Величина скачка равна частоте pi∗ . Поскольку n
сумма абсолютных частот ∑ mi = n , то сумма относительных частот i =1
p
n
∗ ∑ pi = 1 . Можно доказать, что Fn ( x ) → F ( x ) при n → ∞ . Отсюда ясно,
i =1
что эмпирическую функцию распределения можно использовать как оценку теоретической функции распределения F ( x ) . Последовательность случайных величин ξ n называют сходящейся к ξ по вероятности (пишут
ξ
p
n
→ ξ ), если для всякого ε > 0 lim p ( ξ n − ξ > ε ) = 0 .
распределения и гистограмма) являются непараметрическими оценками функции и плотности распределения. Чтобы получить приближенные аналитические выражения для этих функций, их сглаживают. Для этого предполагают, что вид функции известен, но не известны параметры, входящие в функции. Таким образом, задача сводится к нахождению параметров. Это уже параметрический способ оценки закона распределения. Существуют различные методы оценки неизвестных параметров. В данной работе мы воспользуемся методом наименьших квадратов (см. работу 1). Следующие примеры демонстрирют методы оценки функции и плотности распределений. В первой части примеров показана обработки выборки небольшого объема. Элементы выборки задаются вручную. Затем получается вариационный ряд для введенной выборки. Далее рассматривается анализ выборки большой объем. Для получения значений непрерывной случайной величины с заданной функцией распределения F ( x ) применяется метод обратных функций. F ( x)
n →∞
При большом объеме выборки вычисления становятся громоздкими и, с целью упрощения вычислений, элементы выборки объединяют в группы (разряды). Для этого интервал, содержащий все множество элементов выборки, разбивают на k непересекающихся интервалов. При этом правый конец каждого интервала исключают из соответствующего множества, а левый включают. Ради простоты интервалы обычно выбирают одинаковой длины h = R k , где R = xmax − xmin – размах выборки. Если mi – число элементов выборки в i -м разряде, то mi n – его частота. Совокупность разрядов или их середин и соответствующих частот называют группированным статистическим рядом. Геометрически его изображают в виде группированной статистической функции распределения или в виде гистограммы. Гистограмма строится следующим образом. По оси абсцисс откладывают интервалы и над каждым интервалом, как на основании, строят прямоугольник, высота которого равна m значению плотности распределения для данного интервала i h . Таким n образом, площадь каждого прямоугольника гистограммы равна его частоте, а общая площадь равна единице. С увеличением объема выборки n и уменьшением длины интервала гистограмма будет стремиться к кривой плотности распределения f ( x ) , поэтому гистограмму используют в качестве оценки для плотности распределения. Построенные ступенчатые функции (статистическая функция 19
1 r
x xr
Идею метода обратных функций можно пояснить с помощью рис. 2.1. Пусть дана непрерывная случайная ξ , имеющая функцию величина распределения
F ( x) .
Так
0 ≤ F ( x ) ≤ 1 , то величину
Рис. 2.1
как
r = F ( x)
можно рассматривать как случайную величину, равномерно распределенную на отрезке [ 0,1] (см. рис. 2.1).
Зафиксируем некоторое значение r , тогда ему будет соответствовать значение xr = F −1 ( r ) , где F −1 ( r ) – функция, обратная F ( x ) . Величина xr будет распределена по закону, определяемому функцией F ( x ) .
Таким образом, для получения значений случайной величины, распределенной по заданному закону, необходимо найти функцию, обратную F ( x ) , и получаемые равномерно распределенные случайные числа пересчитывать с помощью обратной функции F −1 ( r ) . Например, для показательного закона распределения с F ( x ) = 1 − eα x пересчет выполняется с помощью обратной функции по формуле x = (или x =
1
α
ln ( r ) ).
20
1
α
ln (1 − r )
В лабораторной работе закон распределения задается функцией арктангенса с параметрами a0 и a1 : 1
1 F ( x ) = arctg ( a0 + a1 x ) + , (2.8) π 2 Значения параметров задаются преподавателем. Следующие разделы примеров показывают, как по заданной выборке вычисляются эмпирические характеристики исследуемой случайной величины. Результатом вычислений примеров являются таблицы значений эмпирической функции распределения Fg и середин разрядов xs . По этим данным необходимо решить задачу методом наименьших квадратов для двухпараметрической функции (2.8). В случае, когда задачи получения и обработки выборки и аппроксимации функции распределения решены правильно, полученные при аппроксимации значения оценок параметров a%0 и a%1 будут близки к значениям параметров, заданных при получении выборки, что легко проверить.
m := [ 5, 2, 2, 1 ]
Относительные частоты > p:=evalf(m/n,1);
p := [ .5, .2, .2, .1 ]
Статистический ряд для исходной выборки > 'X'=X,'p'=p; X = [ 10, 12, 20, 30 ], p = [ .5, .2, .2, .1 ] > xp:=evalf(scaleweight[1./n](xm),1); xp := [ Weight( 10, .5 ), Weight( 12, .2 ), Weight( 20, .2 ), Weight( 30, .1 ) ]
Статистическая функция распределения > F:=y->sum(p[i]*Heaviside(y-X[i]),i=1..k); F := y →
k
∑ pi Heaviside( y − Xi )
i=1
График статистической функции распределения > plot(F,X[1]-1..X[k]+1,0..1,labels=['X','F']);
Пример 2.1 (Maple) Часть 1. Обработка выборки малого объёма > restart: with(stats): with(transform): randomize(): Исходная выборка > x:=[10,10,10,30,20,12,10,12,20,10]: Объём выборки > n:=nops(x): Вариационный ряд для исходной выборки > Y:=sort(x); Y := [ 10, 10, 10, 10, 10, 12, 12, 20, 20, 30 ] Построение статистического ряда для исходной выборки Группировка повторяющихся элементов > xm:=tally(Y); xm := [ Weight( 10, 5 ), Weight( 12, 2 ), Weight( 20, 2 ), 30 ] Неповторяющиеся элементы > X:=statvalue(xm); X := [ 10, 12, 20, 30 ] Количество неповторяющихся элементов > k:=nops(X): Абсолютные частоты для элементов вектора X > m:=frequency(xm); 21
Часть 2. Обработка выборки большого объёма с группировкой Объём выборки > n:=500: Заданная функция распределения > f:=x->arctan(a[0]+a[1]*x)/Pi+0.5; arctan( a 0 + a1 x ) f := x → + .5 π Плотность распределения > df0:=diff(f(y),y): df:=unapply(df0,y); a1 df := y → 2 ( 1 + ( a0 + a1 y ) ) π Обратная функция распределения 22
> g0:=solve(f(y)=z,y): g:=unapply(g0,z); a0 + cot( 3.141592654z ) g := z → −1. a1
Параметры закона распределения > a[0]:=0: a[1]:=10: Равномерно распределённые случайные числа > eps:=1e-2: Y:=[random[uniform[0+eps,1-eps]](n)]: Числа, распределённые по закону арктангенса > X:=map(g,Y): Вариационный ряд > Y:=sort(X): Число разрядов для группировки > k:=10: Размаха выборки > R:=Y[n]-Y[1]; R := 5.183944585 Длина разряда > h:=R/k;
Относительные частоты > p:=evalf(frequency(xp),3); p := [ .00600, .00200, .0200, .0260, .496, .402, .0300, .0100, .00200, .00600] Группированная статистическая функция распределения > F:=x->sum(p[i]*Heaviside(x-xr[i]),i=1..k): > plot([F,f],Y[1]..Y[n],0..1,labels=['Y','F']);
h := .5183944585
Границы разрядов > xr:=[Y[1]+i*h $i=0..k]: xr[k+1]:=xr[k+1]+1e-4: Интервалы разрядов > xrr:=[(xr[i]..xr[i+1]) $i=1..k]: Середины разрядов > xs:=evalf([xr[i]+0.5*h $i=1..k],3); xs := [ -2.33, -1.81, -1.29, -.771, -.254, .265, .783, 1.30, 1.82, 2.34 ] Группированный статистический ряд > xp:=scaleweight[1/n](statsort(tallyinto(Y,xrr))): Гистограмма > pic2:=statplots[histogram](xp): > plots[display](plot(df,Y[1]..Y[n]),pic2);
Оценка параметров закона распределения Накопленные частоты > Fg:=evalf(cumulativefrequency(xp),3); Fg := [ .00600, .00800, .0280, .0540, .550, .952, .982, .992, .994, 1. ] Линеаризация > yg:=evalf(map(y->tan((y-0.5)*Pi*(1-2*eps)),Fg)): Оценка параметров методом наименьших квадратов > fit[leastsquare[[y,z]]]([xs,yg]); z = 3.495959435+ 10.72620093y
Пример 2.2 (Mathematica)
23
m1:=1/n*sum(x[i],i=1..n); m1 := -1.288963807
> m:=subs((op@op)(M)[1],[mu1,sigma1]); m := [ -1.288963807, 1.848418476]
График функции правдоподобия > plot3d(L(mu1,sigma1)/L(m[1],m[2]),mu1=m[1]-1.. m[1]+1,sigma1=m[2]-1..m[2]+1,axes=FRAME);
2-й центральный момент (оценка дисперсии) > m2:=1/(n-1)*sum((x[i]-m1)^2,i=1..n); m2 := 3.486378429 оценка ср. кв. отклонения > s:=sqrt(m2);
s := 1.867184626
Оценка параметров μ и σ нормального распределения Плотность нормального распределения > f:=(x,mu,sigma)->exp(-(x-mu)^2/2/sigma^2)/ sqrt(2*Pi*sigma^2); e
f := ( x, μ, σ ) →
2 ⎛ ⎜ − 1/ 2 ( x − μ ) ⎜ ⎜⎜ 2 σ ⎝
⎞ ⎟ ⎟ ⎟⎟ ⎠
2 π σ2
Функция правдоподобия > L:=(mu,sigma)->product(f(x[i],mu,sigma),i=1..n); L := ( μ, σ ) →
n
∏ f( xi, μ, σ )
i=1
Поиск наиболее правдоподобных значений параметров μ и σ > sys:={sigma1>0, diff(ln(L(mu1,sigma1)),mu1)=0, diff(ln(L(mu1,sigma1)),sigma1)=0}: > M:=solve(sys,{mu1,sigma1}); M := { σ1 = 1.848418476, μ1 = -1.288963807} Наиболее правдоподобные значения параметров > m:=subs(M,[mu1,sigma1]); m := [ -1.288963807, 1.848418476] Другой способ вычисления > M:=maximize(L(mu1,sigma1),mu1=-infinity.. infinity,sigma1=0..infinity, location)[2]; 1 M := { ⎡⎢ [ σ1 = 1.848418476, μ1 = -1.288963807], .189179040810-31 25 ⎤⎥ } ⎢ π ⎥⎦ ⎣ 33
Часть2. Исследование параметров выборки с распределением Пуассона Объём выборки > n:=20: Заданный параметр распределения Пуассона > mu:=5: Выборка с распределением Пуассона > x:=evalf([random[poisson[mu]](n)]); x := [ 4., 5., 4., 2., 8., 5., 4., 3., 5., 6., 1., 4., 6., 5., 3., 6., 7., 7., 6., 4. ] 1-й начальный момент > m1:=1/n*sum(x[i],i=1..n); m1 := 4.750000000 Плотность распределения Пуассона > p:=(x,mu)->exp(-mu)*mu^x/x!; ( −μ ) x e μ p := ( x, μ ) → x! Функция правдоподобия > L:=(mu)->product(p(x[i],mu),i=1..n); L := μ →
n
∏ p( xi, μ )
i=1
Наиболее правдоподобное значение параметра > m:=solve(diff(ln(L(mu1)),mu1)=0,mu1); m := 4.750000000 Другой способ вычисления 34
> M:=maximize(evalf(L(mu1)), mu1=0..infinity,location)[2]; M := { [ { μ1 = 4.750000000}, .325905629410-17 ] } > m:=subs((op@op)(M)[1],mu1); m := 4.750000000
График функции правдоподобия > plot(L(mu1)/L(m),mu1=m-2..m+2,labels=['mu','L']);
Пример 3.2 (Matematica) 0
dμ1 m := Find( μ1 , σ1)
p ( x, μ ) := μ1 := 1
dσ1
ln( L( μ1 , σ1) )
(
(
0
)
x
x!
⋅e
x := rpois ( n , μ )
μ := 5
m1 = 4
−μ
p x , μ ⎞ ⋅ 10 ⎜ ∏ ( i )⎟
L( μ ) := ⎛
⎝
i
⎛ d ln( L( μ1) ) , μ1⎞ ⎟ ⎝ dμ1 ⎠ 1
L( m)
0.5
0
Изучив теоретическое введение и примеры, разработать собственный документ, решающий следующие задачи: 1. получение выборки случайных чисел заданного объема с нормальным законом распределения N ( μ , σ ) (непрерывная случайная величина); 2. получение оценок параметров μ и σ по методу моментов; 3. получение оценки параметров μ и σ по методу максимального правдоподобия; 4. получение выборки случайных чисел заданного объема с распределением по закону Пуассона с заданным параметром μ (дискретная случайная величина); 5. получение оценок параметра μ закона Пуассона по методу максимального правдоподобия и по методу моментов. Расчитать по двум документам для объемов выборок 10, 50 и 100. Сравнить полученные результаты с теоретическими и сделать выводы о правильности проделанной работы. Записать функцию правдоподобия для закона Коши: ⎞ 1⎛ 1 ⎟. f ( x) = ⎜ 2 π ⎜⎝ 1 + ( x − θ ) ⎟⎠ Можно ли оценить параметр θ по методу наибольшего правдоподобия?
n
m := root ⎜
L( μ2)
)
1
i
μ
Задание
0
T
i := 0 .. n − 1
∑ xi
d
0
m = ( −1.081 1.79) L m − 1 + 0.1⋅ i, m − 1 + 0.1⋅ j 0 1 j := 0 .. 20 W := i, j L m ,m
i := 0 .. 20
n := 20 1 m1 := ⋅ n
ln( L( μ1 , σ1) )
2
4 μ2
37
Контрольные вопросы
⎠
m= 4
1. 2. 3. 4.
Назовите выборочные числовые характеристики. Что такое статистики и для чего они служат? Какими свойствами должны обладать оценки? Приведите примеры состоятельной, несмещенной и эффективной оценок. 5. Что такое функция правдоподобия? В чем сущность метода наибольшего правдоподобия ? 6. Пусть X 1 , X 2 ,K , X n – выборка из генеральной совокупности с известным средним m и неизвестной дисперсией σ 2 . Показать, что 1 2 несмещённой оценкой для σ 2 будет статистика S02 = ∑ ( X i − m ) n (Задача № 2.13 гл.15 [2]). 7. Решить задачи № 2.14, 2.21, 2.32-2.35 гл. 15 [2]. 38
4. Equation Section (Next)Интервальные оценки числовых характеристик В предыдущей работе были рассмотрены методы, дающие оценку параметра в виде некоторого числа или точки на числовой оси. Такие оценки называют точечными. Точечная оценка без указания степени точности и надежности не имеет практического значения, так как представляет собой только возможное значение случайной величины, т.е. сама точечная оценка является величиной случайной. Можно доказать, что в выборке объема n из генеральной совокупности, распределенной по нормальному закону N ( a, σ ) среднее выборочное Mx распределено
(
)
решают относительно θ . Рассмотрим нахождение доверительного интервала на примерах. Пример 1. Найдем доверительный интервал для математического ожидания mξ = a по заданной выборке x = ( x1 , x2 ,..., xn ) из генеральной совокупности, распределенной по нормальному закону
считая, что Mx и S – точечные оценки математического ожидания и дисперсии. Рассмотрим статистику tn ( x, a ) = ( Mx − a ) n − 1 S . Как отмечалось выше, она распределена по закону Стьюдента с n − 1 степенью свободы. Тогда δ
n . Величина nS∗2 / σ 2 распре-
также по нормальному закону N a, σ
делена по закону χ с n степенями свободы, а tn = ( Mx − a ) n − 1 S –
∫
2
по закону Стьюдента с n − 1 степенью свободы. Чтобы получить представление о точности и надежности оценки θ% для параметра θ , возьмем достаточно большую вероятность β и най-
(
)
дем такое δ > 0 , для которого P θ% − θ < δ = β
(
)
(
)
или P −δ < θ − θ% < δ = P θ% − δ < θ < δ + θ% = β .
(4.1)
Равенство (4.1) означает, что точное, но неизвестное значение паθ с вероятностью β накрывается интервалом раметра
(
)
l = θ% − δ ,θ% + δ . Этот интервал называют доверительным, а вероят-
ность β – доверительной вероятностью или надежностью оценки. Очевидно, чем меньше δ для заданного β , тем точнее оценка. В общем случае интервал, образованный статистиками U ( x ) и V ( x ) , называется доверительным для оцениваемого параметра θ , если
выполняется равенство P (U ( x ) < θ < V ( x ) ) = β .
−δ
θ , но распределение которой от этого параметра не зависит. Задают надежность β , и по закону распределения статистики tn ( x,θ ) находят доверительные границы из условия (4.2). Затем полученное неравенство 39
δ
f ( x ) dx = 2∫ f ( x ) dx = β .
(4.3)
0
В формуле (4.3) плотность f ( x ) определяется выражением (2.6), в которое вместо n следует поставить n − 1 . Неизвестное δ определяется из (4.3), а доверительный интервал – из неравенства
( Mx − a )
n −1 S < δ .
⎛ δS δS ⎞ , Mx + (4.4) Таким образом, l = ⎜ Mx − ⎟. n −1 n −1 ⎠ ⎝ Пример 2. В условии примера 1 найдем доверительный интервал для дисперсии Dξ = σ 2 .
Для этого выберем статистику tn ( x, σ 2 ) =
nS 2
. Согласно сказанноσ2 му выше она распределена по закону χ 2 с n − 1 степенью свободы. Определение доверительного интервала аналогично, но осложняется несимметричностью закона распределения χ 2 . Действительно, уравнение t2
∫ f ( x ) dx = β
(4.2)
Здесь x – выборочный вектор, надежность β выбирается близкой к единице. Концы интервала называются доверительными границами. Порядок нахождения доверительного интервала следующий. Подыскивают подходящую статистику tn ( x,θ ) , зависящую от параметра
N ( a, σ ) ,
2
(4.5)
t1
имеет неоднозначное решение относительно t1 и t2 . Здесь плотность f ( x ) определяется формулой (2.5), только n следует заменить на
n − 1 . Ради однозначности наложим дополнительные условия, а именно будем считать, что t1
∫
−∞
∞
f ( x ) dx = ∫ f ( x ) dx . t2
40
(4.6)
t1
∫
Поскольку
−∞
t2
∞
t1
t2
f ( x ) dx + ∫ f ( x ) dx + ∫ f ( x ) dx = 1 , то, учитывая равен-
ства (4.5) и (4.6), получим t1
∞
−∞
t2
2 ∫ f ( x ) dx = 1 − β , 2 ∫ f ( x ) dx = 1 − β .
Из (4.7) найдем t1 и t2 , а решая неравенство t1
x:=[random[normald[muX,sigmaX]](n)]: > Mx:=moment[1](x); > Dx:=moment[2,mean,0](x); sigma:=sqrt(Dx); > fn:=(x,sigma)->exp(-x^2/2/sigma^2)/ sqrt(2*Pi*sigma^2):
45
> ft:=(t,n)->GAMMA((n+1)/2)/GAMMA(n/2)/ sqrt(Pi*n)*(1+t^2/n)^(-(n+1)/2); > fx:=(x,n)->x^((n-2)/2)*exp(-x/2)/2^(n/2)/ GAMMA(n/2); > beta:=0.95: > S:=sigmaX^2: sigma1:=evalf(sqrt(S/n)); > delta:=fsolve(2*int(fn(y,sigma1),y=0..z)-beta,z); > dz:=delta*sigma1: m:=[Mx-dz, Mx+dz]: 'Mx'=Mx, m; > S:=Dx: > delta:=fsolve(2*int(ft(y,n-1),y=0..z)-beta,z); > dz:=delta*sqrt(S/n): m:=[Mx-dz, Mx+dz]: > 'Mx'=Mx, m; > alpha:=1-beta; > delta1:=fsolve(int(fx(y,n),y=0..z)-alpha/2,z); > delta2:=fsolve(int(fx(y,n),y=z..20*n)-alpha/2,z); > dz:=n*S: s:=[dz/delta2, dz/delta1]: 'Dx'=Dx, s; > delta1:=fsolve(int(fx(y,n-1),y=0..z)-alpha/2, z,0..n); > delta2:=fsolve(int(fx(y,n-1),y=z..20*n)-alpha/2, z,n..20*n); > dz:=(n-1)*S: s:=[dz/delta2, dz/delta1]: > 'Dx'=Dx, s;
Задание 1. В условиях примера 1 записать формулы доверительного интервала математического ожидания mξ = a , считая дисперсию σ 2 известной. 2. В условиях примера 1 записать формулы для доверительного интервала дисперсии Dξ = σ 2 , считая математическое ожидание известной величиной. 3. Используя выборку из примера 2.1 (первая часть) и полагая, что доверительная вероятность β = 0,8; 0,9; 0, 95, вычислить доверительные интервалы: 1) для математического ожидания, считая дисперсию: а) известной величиной σ 2 = S 2 , б) неизвестной величиной (использовать оценку); 2) для дисперсии, считая математическое ожидание а) известной величиной mξ = Mx , в) неизвестной величиной. Результаты сравнить. Указание к заданию 1. Учесть, что статистика tn ( x, a ) = Mx − a рас⎛ σ ⎞ пределена по нормальному закону N ⎜ 0, ⎟. n⎠ ⎝
46
Указание к заданию 2. Рассмотреть статистику tn ( x, σ 2 ) = nS∗2 / σ 2 . Замечание к заданию 3. Считать, что генеральная совокупность, из которой взята выборка, распределена по нормальному закону. При этом в случае больших n распределения χ 2 и Стьюдента сходятся к нормальному закону, поэтому при n > 30 можно считать, что статистиMx − a S n − 1 , t n = ∗ 2n − 2n − 1 , ки t n = σ S пределены по нормальному закону N ( 0,1) .
S tn =
5. Equation Section (Next)Критерии согласия Допустим, что построенную по выборке статистическую функцию распределения Fn ( x ) мы сгладили с помощью некоторой гипотетической функции распределения F ( x ) . Возникает вопрос: а верна ли гипотеза о том, что функция распределения именно F ( x ) , а не какая-либо
2n − 2n − 3 рас-
другая? Точнее, не противоречит ли гипотеза о законе распределения F ( x ) результатам эксперимента? Чтобы ответить на этот вопрос, поль-
4. Провести расчеты доверительных интервалов для μ и σ , заданных преподавателем (смотри примеры 4.1-4.4), при объеме выборок 10, 50 и 100.
зуются критериями согласия. Под критерием согласия понимают некоторую величину Δ ( Fn , F ) ,
σ
Контрольные вопросы 1. Что называется доверительным интервалом и доверительной вероятностью? 2. Дайте общую схему построения доверительного интервала. 3. Как изменяется доверительный интервал с увеличением надежности? С увеличением объема выборки? 4. Как изменяется доверительный интервал в зависимости от того, известны ли другие параметры точно или нет?
которая отражает количественную меру расхождения гипотетического F ( x ) и эмпирического Fn ( x ) распределений. Эту величину можно выбрать многими способами, в соответствии с которыми получаются и различные критерии проверки интересующей нас гипотезы. Например, можно положить (5.1) Δ ( Fn , F ) = Dn = sup Fn ( x ) − F ( x ) или Δ ( Fn , F ) = ω 2 =
∞
∫ ⎡⎣ F ( x ) − F ( x )⎤⎦ n
2
dF ( x ) .
−∞
Выборочные оценки в задачах 5-8 определялись по результатам n наблюдений. Используя эти данные, найти 90%-ные и 99%-ные доверительные интервалы для математического ожиданияследующих характеристик (Задачи № 3.1–3.4 гл.15 [2]): 5. Ёмкость конденсатора, если x = 20 мкФ, n = 16 , с.к.о. известно и равно 4 мкФ. 6. Время безотказной работы электронной лампы, если x = 500 , n = 100 , с.к.о. известно и равно 10 ч. 7. Диаметр вала, если x = 30 мм, n = 9 , s 2 = 9 мм2. 8. Содержание углерода в единице продукта, если x = 18 г, n = 25 , s = 4 г.
В первом случае получаем критерий Колмогорова, во втором – критерий Мизеса. Схема применения критерия согласия следующая. Возьмём α > 0 настолько малым, чтобы осуществление события с вероятностью α можно было считать практически невозможным в единичном опыте. Зная закон распределения случайной величины Δ = Δ ( Fn , F ) , найдем ее
47
48
возможное значение Δ 0 из уравнения P ( Δ > Δ 0 ) = α . По данной выборке вычислим значение критерия согласия Δ1 = Δ ( Fn , F ) . Если окажется, что Δ1 > Δ 0 , то это значит, что произошло практически невероятное событие. Следовательно, эксперимент опровергает нашу гипотезу, и она отбрасывается. При этом вероятность того, что мы отбросили верную гипотезу, равна α . Если Δ1 < Δ 0 , то гипотеза не противоречит эксперименту и должна быть принята. Число α называется уровнем значимости критерия. Колмогоров нашел предельную функцию распределения величины λ = nDn . Эту функцию обычно обозначают K ( x ) :
K ( x ) = lim P n →∞
(
) ∑ ( −1)
nDn < x =
∞
k
e −2 k
2 2
x
, x > 0.
(5.2)
k =−∞
Формулой (5.2) можно пользоваться для больших n . Чтобы воспользоваться критерием согласия Колмогорова, нужно построить графики гипотетической и выборочной функций распределения, по графикам найти статистику Dn и вычислить величину
λ1 = nDn . Найти вероятность события P
(
nDn > λ1 по формуле
)
∞
nDn > λ1 = 1 − K ( λ1 ) = −2∑ ( −1) e −2 k k
2 2 λ1
.
(5.3)
k =1
Если эта вероятность меньше α , то гипотеза отвергается, если больше, то признается непротиворечащей эксперименту. Предположим теперь, что, например, из физических соображений мы можем высказать гипотезу только о виде закона распределения, а параметры, входящие в него, неизвестны. Тогда критерий согласия Колмогорова не применим. В таких случаях часто используют критерий согласия Пирсона. Всю числовую ось разобьем на r непересекающихся разрядов точками −∞ = x0 < x1 < x2 < ... < xr = ∞ . Примем гипотезу о функции распределения. Неизвестные параметры, входящие в нее, заменим их оценками. Таким образом, гипотетическая функция распределения F ( x ) будет известна, и можно будет найти вероятности pi = F ( xi ) − F ( xi −1 ) попадания случайной величины в i -й разряд.
Возьмем статистику r
tn = χ 2 = ∑
( mi − npi ) npi
i =1
2
.
(5.4)
Здесь n – объем выборки, r – число разрядов, mi – число значений в i -м разряде. За меру расхождения между гипотетической F ( x ) и эмпирической Fn ( x ) функциями распределения примем статистику tn = Δ ( Fn , F ) ,
определенную формулой (5.4). Фишером доказано, что предельным законом распределения статистики tn является распределение χ 2 с r − m − 1 степенями свободы, если параметры оценены по методу максимального правдоподобия. Здесь m – число параметров, входящих в гипотетическую функцию распределения. Доказано также, что при объеме выборки n > 30 с достаточной точностью можно пользоваться предельным законом распределения, если npi > 5 . 49
Схема применения критерия Пирсона следующая. По формуле (5.4) вычисляют значение статистики tn = Δ 0 . Вычисляют вероятность p ( Δ > Δ0 ) =
∞
∫ f ( x ) dx .
(5.5)
Δ0
Здесь f ( x ) определяется формулой (2.5), а n следует заменить на r − m − 1 . Если эта вероятность меньше уровня значимости α , то гипотезу следует отбросить. Применение критериев согласия иллюстрируют примеры 5.1-5.4. В начале генерируется (по методу обратных функций) выборка значений случайной величины, распределенной по показательному закону с заданным параметром a . Далее выборка группируется и находится группированная функция распределения, что необходимо для критерия Колмогорова. В соответствии со схемой применения критерия Колмогорова, задается теоретическая функция распределения F ( x ) , и по
этим значениям вычисляется статистика Dn . Вычисляется вероятность по формуле (5.3) и сравнивается с уровнем значимости α . В следующем разделе примеров применяется критерий Пирсона, Отметим, что, поскольку критерий Пирсона работает с плотностью распределения, для него может понадобиться другая группировка той же исходной выборки. Теоретическая плотность распределения может быть получена дифференцированием ранее введенной функции распределения. Теперь можно вычислить значение статистики и оценить вероятность (5.5), сравнивая ее с уровнем значимости α .
Пример 5.1 (Matlab) % Часть 1. Критерий Колмогорова % Получение выборки заданного объема n n=100; % Теоретическая функция распределения f=inline('1-exp(-a*x)','x','a'); % Теоретическая плотность распределения df=inline('a*exp(-a*x)','x','a'); % Обратная функция распределения g=inline('-log(1-x)/a','x','a'); % Параметр закона распределения a=2; % Равномерно распределённые случайные числа eps=1*1e-2; Y=unifrnd(0,1-eps,1,n); % Числа, распределённые по показательному закону X=g(Y,a);
50
% Группировка для критерия Колмогорова % Вариационный ряд Y=sort(X); % Число разрядов для группировки k=10; % Размах выборки R=Y(n)-Y(1) R=2.0231 % Длина разряда h=R/k h=0.2023 % Определение абсолютных частот и середин разрядов [m,xs]=hist(Y,k); % Относительные частоты p=m/n; % Накопленные частоты Fg=cumsum(p); % График эмпирической функций распределения stairs(xs,Fg), hold on % График теоретической функций распределения x1=Y(1):0.1:Y(n); y1=f(x1,a); plot(x1,y1,'r'), hold off, pause
j=1:n; PL=-2*sum((-1).^j.*exp(-2*j.^2*lambda1^2)) PL=0.9826 if PL>alpha sprintf('Гипотеза не противоречит эксперименту') else sprintf('Гипотеза противоречит эксперименту') end Гипотеза не противоречит эксперименту % Часть 2. Критерий Пирсона % Теоретические вероятности pr=df(xs,a)*h; chi2=n*sum((p-pr).^2/pr) chi2=0.1360 % Плотность распределения хи-квадрат fx=inline(... 't.^(n/2-1).*exp(-t/2)/2^(n/2)/gamma(n/2)',... 't','n'); dfx=inline('quad(f,0,y,[],[],n)-(1-alpha)',... 'y','f','n','alpha'); zx=inline('fzero(df,z0,[],f,n,alpha)',... 'f','df','n','alpha','z0'); r=k-1; w=zx(fx,dfx,r,alpha,r) w=16.9190 if chi2<w sprintf('Гипотеза не противоречит эксперименту') else sprintf('Гипотеза противоречит эксперименту') end Гипотеза не противоречит эксперименту
Пример 5.2 (Mathcad) n := 100
f ( x) := 1 − exp( −a⋅ x)
% Уровень значимости alpha=0.05; Ft=f(xs,a); epsilon=abs(Ft-Fg); Dn=max(epsilon) lambda1=sqrt(k)*Dn
g ( x) := −
Y := runif ( n , 0 , 1 − ε) Y := sort ( X)
Dn=0.1466 lambda1=0.4637
51
−2
j := 0 .. n − 1
( j)
a
X := g Y j
R := Y
k := 10 i := 0 .. k − 1
a := 2 ε := 10 ln( 1 − x)
n− 1
−Y
h :=
0
R
R = 2.186 h = 0.219
k
52
df ( x) :=
d f ( x) dx
xr := Y 0
xr
i+ 1
0
m := hist ( xr, Y) p :=
m
0
i
k
j := 1 .. k − 1
5
i
2
Fg := Fg j
+p
i
0.5
2
j
i
λ1 := k⋅ Dn λ1 = 0.504
2
xsi , y
( −1) ⋅ exp( −2⋅ j ⋅ λ1 )⎥⎤ ∑ ⎢ ⎥
PL := −2⋅ ⎡⎢
j := 1 .. n
⎣
j
2
2
n 2
−1 −
PL = 0.961
⎦
j
if( PL > α , "True" , "False" ) = "True" x
⋅e
2
2 ⋅ Γ ⎛⎜
n⎞
x
1
Dn := max( ε) Dn = 0.159 1
fx( x, n ) :=
2
2
εi := Ft − Fg
Fgi
r := k − 1
n 2
⎟ ⎝2⎠
( i)
pr := df xs ⋅ h
χ2 := n ⋅
∑
(
i
y := r
j− 1
i
( i)
i
i
3
+ xr
α := 0.05 Ft := f xs
1
f(y)
i+ 1
xs :=
k
m = 36 23 15 11 0
xr
−4
xr := xr + 10
T
Fg := p
n
:= xr + h
p − pr i
pr
)
y
⎣
0
if( χ2 < w , "True" , "False" ) = "True"
χ2 = 4.165
i
⎡⎢⌠ ⎤⎥ w := root ⎮ fx( x, r) dx − ( 1 − α ) , y ⎢⌡ ⎥
w = 16.893
⎦
Пример 5.3 (Maple) > restart: with(stats): with(transform): randomize():
53
n:=100: f:=x->1-exp(-a*x); df0:=diff(f(x),x): df:=unapply(df0,x); g0:=solve(f(x)=y,x): g:=unapply(g0,y); a:=2: eps:=1e-2: Y:=[random[uniform[0,1-eps]](n)]: X:=map(g,Y): Y:=sort(X): k:=10: R:=Y[n]-Y[1]; h:=R/k; xr:=[Y[1]+i*h $i=0..k]: xr[k+1]:=xr[k+1]+1e-4: xrr:=[(xr[i]..xr[i+1]) $i=1..k]: xs:=evalf([xr[i]+0.5*h $i=1..k],3): xp:=scaleweight[1/n](statsort(tallyinto(Y,xrr))): p:=evalf(frequency(xp),3): F:=x->sum(p[i]*Heaviside(x-xs[i]),i=1..k): plot([F,f],Y[1]..Y[n],0..1,labels=['Y','F']); alpha:=0.05: Fg:=cumulativefrequency(xp): Ft:=map(f,xs): epsilon:=map(abs,Ft-Fg): Dn:=max(op(epsilon)); lambda1:=evalf(sqrt(k)*Dn); PL:=-2*sum((-1)^j*exp(-2*j^2*lambda1^2),j=1..n); `if`(PLx^((n-2)/2)*exp(-x/2)/2^(n/2)/ GAMMA(n/2); > r:=k-1: > w:=fsolve(int(fx(t,r),t=0..y)-(1-alpha),y); > `if`(chi2<w,'true','false');
Пример 5.4 (Mathematica)
2
i
> > > > > > > > > > > > > > > > > > > > > > > > >
> > > > > > > > > > > > > > > > > > > > > > > > >
n:=20: muX:=10: sigmaX:=2: muV:=0: sigmaV:=2: x:=[random[normald[muX,sigmaX]](n)]: v:=[random[normald[muV,sigmaV]](n)]: y:=x+v: pxy:=[[x[i],y[i]] $i=1..n]: plot(pxy,style=point,symbol=circle); Mx:=1/n*sum(x[i],i=1..n); Dx:=1/n*sum((x[i]-Mx)^2,i=1..n); Sx:=sqrt(Dx); My:=1/n*sum(y[i],i=1..n); Dy:=1/n*sum((y[i]-My)^2,i=1..n); Sy:=sqrt(Dy); Kxy:=1/n*sum(x[i]*y[i]-Mx*My,i=1..n); r:=Kxy/Sx/Sy; b1:=r*Sy/Sx; b2:=r*Sx/Sy; Y:=evalm(My+b1*(x-Mx)): X:=evalm(Mx+b2*(y-My)): pxY:=[[x[i],Y[i]] $i=1..n]: pXy:=[[X[i],y[i]] $i=1..n]: plot([pxy,pxY,pXy,[[Mx,My]]],style=[point,line, line,point],symbol=circle,color=[red,green,blue, black],symbolsize=[10,10,10,20]); beta:=0.95: S:=evalf((1-r^2)/sqrt(n)): fn:=(x,mu,sigma)-> exp(-(x-mu)^2/2/sigma^2)/sqrt(2*Pi*sigma^2): CInt:=proc(mu,sigma) local z,dz,x,y; z:=solve(2*int(fn(x,mu,sigma),x=0..y)-beta,y); dz:=z*sqrt(sigma/n); RETURN([mu-dz,mu+dz]); end: 'r'=r, CInt(r,S); 'b1'=b1, CInt(b1,S*Sy/Sx); 'b2'=b2, CInt(b2,S*Sx/Sy);
Пример 6.3 (Mathematica) True]; p3=ListPlot[pXy,PlotStyle->{Green}, PlotJoined->True]; p4=ListPlot[{{Mx,My}}, PlotStyle->{Black,PointSize[.05]}]; Show[{p1,p2,p3,p4}]; beta=0.95; S=(1-r^2)/Sqrt[n]; CInt[mu_,sigma_]:=Module[{z,dz},z=y1/.FindRoot[ 2*CDF[NormalDistribution[mu,sigma],y1]-beta==0, {y1,mu}][[1]];dz=z*Sqrt[sigma/n]; {mu-dz,mu+dz}]; Print["r=",r," ",CInt[r,S]] Print["b1=",b1," ",CInt[b1,S*Sy/Sx]] Print["b2=",b2," ",CInt[b2,S*Sx/Sy]]
Пример 6.4 (Matlab) function lab6 n=20; muX=10; sigmaX=2; muV=0; sigmaV=2; x=normrnd(muX,sigmaX,1,n); v=normrnd(muV,sigmaV,1,n); y=x+v; plot(x,y,'ro'), pause Mx=1/n*sum(x), Dx=1/n*sum((x-Mx).^2), Sx=sqrt(Dx) My=1/n*sum(y), Dy=1/n*sum((y-My).^2), Sy=sqrt(Dy) Kxy=1/n*sum(x.*y-Mx*My) r=Kxy/Sx/Sy, b1=r*Sy/Sx, b2=r*Sx/Sy x1=min(x):0.1:max(x); y1=min(y):0.1:max(y); Y=My+b1*(x1-Mx); X=Mx+b2*(y1-My); plot(x,y,'ro',x1,Y,'b',X,y1,'g',Mx,My,'kd'), pause beta=0.95; S=(1-r^2)/sqrt(n); rCI=CInt(r,S,beta,n); r, rCI b1CI=CInt(b1,S*Sy/Sx,beta,n); b1, b1CI b2CI=CInt(b2,S*Sx/Sy,beta,n); b2, b2CI
64
%-------------------------------------------------function CI=CInt(mu,sigma,beta,n) fn=inline(... 'exp(-(x-mu).^2/2/sigma^2)/sqrt(2*pi*sigma^2)',... 'x','mu','sigma'); dfn=inline('2*quad(f,0,y,[],[],mu,sigma)-beta',... 'y','f','mu','sigma','beta'); zn=inline('fzero(df,mu,[],f,mu,sigma,beta)',... 'f','df','mu','sigma','beta'); z=zn(fn,dfn,mu,sigma,beta); dz=z*sqrt(sigma/n); CI=[mu-dz,mu+dz];
Задание 1. Вывести равенство (6.7). 2. Найти теоретически кривые регрессии, если известна плотность вероятности системы случайных величин: f ( x, y ) = 0,5 ( x + y ) e − x − y , x > 0 , y > 0 . 3. Доказать, что при нормальном законе распределения двумерной случайной величины регрессии линейные. Указание. Плотность распределения имеет вид: 2 ⎡ x − mξ ) ( 1 1 ⎢ f ( x, y ) = exp − ⋅ − ⎢ 2 (1 − ρ 2 ) σ ξ2 2πσ ξ σ η 1 − ρ 2 ⎣ 2 2 ρ ( x − mξ )( y − mη ) ( y − mη ) ⎤ ⎥. − + ⎥ σξση σ η2 ⎦ x − mξ y − mη =u , Сделать замену переменных = v. 4. 5. 6.
7.
σξ ση Получить две выборки нормально распределенных случайных величин x и y . По выборкам найти выборочные числовые характеристики. Начертить прямые регрессии. Найти доверительные интервалы для r , β1 и β 2 при доверительной вероятности 0,95 , предполагая нормальное распределение генеральной совокупности. Провести расчеты по документу для объёмов выборок 10, 20 и 50.
65
Контрольные вопросы 1. В чем различие между функциональной и статистической зависимостями ? 2. Что такое условные математическое ожидание и дисперсия ? 3. Как найти плотности компонентов и условные плотности, если функция f ( x, y ) известна? 4. Что такое корреляционный момент, коэффициент корреляции, регрессия? 5. Вывести формулы (6.5) и (6.8). 6. Как решается вопрос: из какого класса функций искать оценку регрессии? 7. Решить задачу: Интерпретируя yi как диаметр деревьев, а xi как высоту (см. таблицу 6.1), найти средний диаметр деревьев, имеющих высоту 26 м. Таблица 6.1 22 28 24 25 31 X 0.6 0.6 0.3 0.2 0.8 Y 8. Решить задачи № 7.25–7.28 гл. 15[2].
Литература 1. Гмурман В.Е. Теория вероятностей и математическая статистика. М.: Высш. шк., I977. 2. Сборник задач по математике. Специальные курсы / Под редакцией Ефимова А.В. М.: Наука, I984. 3. Фирсов И.П., Никитина А.В., Бутенков С.А. Методические указания к практическим занятиям по математической статистике с применением ЭВМ. Таганрог: ТРТУ, 1997.
66
Фирсов Иван Парфенович Семерий Олег Сергеевич МЕТОДИЧЕСКИЕ УКАЗАНИЯ к лабораторным работам по математической статистике с применением ЭВМ для студентов II курса всех специальностей ЕГФ
Ответственный за выпуск О.С. Семерий Редактор Маныч Э.И. Корректор Проценко И.А.
ЛР№020565
Подписано к печати 22.04.97
Формат 60 X 84 1 16 Офсетная печать Усл.п.л.-3,6 Заказ №
Бумага газетная Уч.-изд. л.-3,4. Тир. 500 экз.
«C» Издательство Таганрогского государственного радиотехнического университета ГСП 17А, Таганрог, 28, Некрасовский, 44. Типография Таганрогского государственного радиотехнического университета ГСП 17А, Таганрог, 28, Энгельса, 1.
67