Главная

Химия

Чёрная металлургия

Гостевая книга

 

Математическая статистика в металлургии

(краткое пособие)

к.т.н. Д.В. Гулыга

Оглавление

Случайная величина. 1

Понятиe вероятности случайной величины.. 4

Законы распределения вероятности случайной величины. 5

Характеристики распределения. 6

Дискретные распределения. 8

Биномиальное распределение. 8

Распределение Пуассона. 8

Непрерывные распределения. 9

Нормальный закон распределения. 9

Оценка среднего в выборке. 10

Распределение Стьюдента. 11

Оценка дисперсии выборки. 11

Асимметричные распределения. 13

Критерий согласия. 14

Примеры соответствия выборочного и теоретического распределения. 15

Система случайных величин. 16

Двумерная случайная величина. 16

Нормальное  распределение для двух случайных величин. 17

Регрессионный анализ. 19

Метод наименьших квадратов. 20

Парная линейная корреляция. 20

Множественная линейная корреляция. 22

Параболическая апраксимация. 23

Метод Чебышева. 23

Корреляционное отношение. 24

Линеаризация функций. 25

Понятие стационарного случайного процесса. 26

Переходные процессы.. 26

Логостическая кривая. 26

Заключение. 27

Литература. 28

 

Случайная величина

Любая величина, характеризующая  производство продукции и ее качество – состав и температура чугуна и стали, механические свойства проката – не является точным числом, а определяется  разбросом значений. Требования к продукции также выражается  диапазоном чисел (от..до) или односторонним пределом (не более.., не менее)

Технология устанавливает условия и параметры производства, но и они колеблются в определенных пределах. Не все свойства, например, качество кокса в доменной плавке можно характеризовать конкретными величинами и предугадать их воздействия на технологию. В выполнении технологии играет роль человеческий фактор или квалификация персонала. И, наконец, в разбег величин  вносит вклад ошибки измерения. Существуют обширные разработки, определяющие правила  контроля технологии, отбора  проб и проведения испытаний, чтобы признаки в максимальной степени отображал реальное качество технологии и продукции.

До тех пор пока технологическая величина не выходит за определенные пределы, считается, что технология соблюдается,  но если колеблемость возрастает или величина параметра сдвигается в неблагоприятную сторону, то требуется анализ причин ухудшения технологии.

Выборка, например, по прочности стали одного вида, но разных партий представляет ряд значений:

                    х1, х2, …хi,…xn

Единичные значения хi  группируются  около среднего значения для выборки, которое определяется как арифметическое среднее:

 

                  Xс=1/n∑xi                                                                                                   (1)

 

В теории вероятности величине Xc соответствует понятие математического ожидания Mx, которое  определяет точную величину среднего. Приближенность величины Xc подтверждается тем, что при повторной выборке величина Xc получает несколько иное значение. Это происходит потому, что из генеральной совокупности  величин, выбирается  ограниченное количество признаков. В дальнейшем можно будет определить погрешность величины.

Для оценки колеблемости величины х в выборке используется дисперсия Dx и среднеквадратичное отклонение Sx=√Dx

 

                Dx=1/(n-1)·∑(xi  - Xc)2                                                            (2)

 

Величина  n-1 характеризует степень свободы системы. Если  в выражении (2) делитель принять равным n, и n=1, то окажется х=Xc и Dx=0, хотя  это следствие лишь минимальной величины п. Отклонения хi – Xc неоднородны по величине и более    «опасные» большие величины влияют на величину Dx  в большей степени, чем малые.

Дисперсия выборки Dx по аналогии с Xc дает приблизительную оценку колеблемости признака и с погрешность отображает дисперсию Dm=δ2) и среднеквадратичное отклонение δ(х) генеральной совокупности.

Если диапазон выборки x1..xn разделить на k равных интервалов (разрядов), и определить количество значений в каждом j-том интервале, то выборку можно представить в следующем виде:

 

                                   x1     x2 … xj ….xk                              (3)               

                                   m1    m2 … mj…mk

                                                          w1,  w2… wj…  wk

 

Количество интервалов  k выбирается от 8 до 25 и увеличивается при большем количестве n >500 (испытаний, параметров, наблюдений).

x1   x2 …xj ….xk  -средние значения x  в каждом из разрядов. В интервале должно помещаться кратное количество значений.

 mj- число наблюдений в разряде ∑mj = n

Для каждого интервала частота  wj=mj/n. Очевидно, для всей выборки ∑wj=1.Частота выборки wj соответствует  вероятности pj.  события в генеральной совокупности. Для вероятности также  ∑pj = 1.

Если  выборка записана по интервалам, по форме (3), то  значение среднего выборки можно записать:

 

                         Xc=∑xj·wj                                                                                    (1-1)

 

J пробегает значение от  1 до k

Дисперсия выборки Dx=S2x  записывается:

 

                         Dx=∑(xj – Xc)2·wj                                           (2-1)

 

Или более точно, что существенно для малых выборок  n<30:

 

                         Dx=n/(n-1)·∑(xj – Xc))2·wj                                             (2-2)

 

Величины, определенные таким способом ,могут иметь погрешность по сравнению с  классическим  определением  (1)  и  (2)  т.к . xj при   резком    изменении   значений в смежных интервалах может не представлять среднее значение в интервалах.

Эмпирическое распределение признака можно оценить по величине размаха между крайними значениями x1 и xn.  Но крайние величины могут определяться ошибкой или нехарактерным проявлением процесса. Чтобы представить характерный разброс  необходимо задаться «объективной» частностью, например, W(p)=0.95 и определить интервал признака, который соответствует этой частности.

Для этой цели с каждой стороны выборки  необходимо отбросить количество наблюдений n(q), соответствующее частностости:

 W(q)=1/2·(1 – W(p))=1/2·(1 – 0.95)=0.025

Отбрасываются полностью разряды с частотой ∑Wi<W(q)  а для остаточной частоты W(r)=W(q)-∑Wi определяют значение признака x(1) в левом крайнем, не отброшенном  разряде: x(1)=xj+ ∆x·W(r)/Wj

 xj – начальной (левое) значение интервала, в котором находится признак x(1); ∆x- величина интервала для одного разряда; Wj- частота признака в этом разряде.

Аналогично с правой стороны: x(2)=xk - ∆x·W(r)/Wk

xk – начальной (правое) значение интервала, в котором находится признак x(2); Wk- частота признака в этом разряде.

ÝНазад

Понятие вероятности случайной величины

Первоначально использовались эмпирические понятия – среднее значение выборки, дисперсия выборки, частота признака и разбег признака, соответствующий «объективной» частоте события. Отмечено, что параметры выборки соответствуют параметрам генеральной совокупности.

В отличие от эмпирического подхода к случайным событиям, теория вероятности изучает закономерности этих событий. При повторении одного и того же процесса  он происходит несколько по иному, что отображается на конечных результатах, например, на свойствах продукции. Эти отклонения возникают вследствие действия неизвестных или неучтенных причин, но их можно оценить определенными зависимостями.

Если некоторое событие при заданных условиях может произойти или не произойти, то оно называется случайным. Количественной оценкой появления данного случайного события является вероятность. Она находится в пределах 0<P<1. Вероятность достоверного события – 1, вероятность невозможного события – 0.

Если в результате опыта непременно должно произойти одно из нескольких событий, то такие события образуют полную группу. События называют не совместимыми, если два из них не могут появляться вместе. Если в группе n несовместимых событий, эти события равно возможны, то они равно возможны: вероятность орла или решки равна ½, вероятность выпадения шестерки при бросании кубика равна 1/6.

Если события несовместимы, равновозможны и образуют полную группу, то они называются случаями. Вероятность появления всех случаев в полной группе равна 1. Случай называют благоприятным, если его появление влечет за собой появление данного события.

Для схемы случаев:

            Р(А)=m/n

P(A)-вероятность события A, n – общее число случаев, m – число случаев, благоприятных событию А.

Вероятность соответствует частоте – количеству благоприятных случаев, установленных при испытании:

           W(A)=m/n

По теореме Бернулли частота при большем количестве испытаний приближается к вероятности события.

Вероятность суммы несовместимых событий равна сумме вероятности этих событий:

           Р(A+B)=P(A)+P(B)

Если в урне 30% красных шаров, 40% синих и 30% зеленых, то вероятность вытянуть красный или синий шар составляет:

          P=0.3+0.4=0.7

Вероятность совместного появления событий составляет:

         Р(AB)= P(A)·P(B)

Вероятность вынуть последовательно красный и синий шар равна:

          P=0.3·0.4=0.12

Если событие В частый случай события А и вероятность такого события среди событий А равна А(РВ) то:

          Р(В)=Р(А)·РА(В)

Если среди красных шаров вероятность вытащить шар с белой крапинкой составляет 0.5, то вероятность вытащить из урны красный шар с белой крапинкой составляет:

           Р=0.3·0.5=0.15

Теорема сложения вероятностей справедлива для несовместимых событий. Если события А и В совместимы, то вероятность суммы этих событий выражается формулой:

          Р(А+В)=Р(А)+Р(В)-Р(АВ)

Вероятность суммы трех совместимых событий:

          Р(А+В+С)=Р(А)+Р(В)+Р(С)-Р(АВ)-Р(АС)-Р(ВС)-Р(АВС)

ÝНазад

 

Законы распределения вероятности случайной величины

 

Существуют теоретические функции, с помощью которых можно рассчитать вероятность появления события x(xi.. xj)  в объеме генеральной совокупности или приближенно в объеме выборки.

 Функция распределения F(x) величины х определяет вероятность того, что случайная величина x принимает любое значение меньше заданного

С помощью такой функции определяется вероятность попадания  х в интервал  x(xi..xj) :

          F(xi ) – F(xj) = P(xi<x<xj) хi – F(xi)=P(x<xi)

Функции существуют для дискретных и непрерывных величин. Дискретная  величина характеризуется значениями x1, x2,.. которые она  может принимать с вероятностью Р1=Р(х=х1), для каждого из этих значений.. F(x) является ступенчатой функцией со скачками высоты в точках xi . F(x)xi<x=∑Pi     и     ∑Рi=1

К распределениям случайных дискретных величин относится биномиальное, гипергеометрическое, Пуансона.

Распределение непрерывной случайной функции описывается   интегральной функцией, равной 1 для пределов интегрирования от  + бесконечности до – бесконечности:

   ;                         (3), (3-1)

Вероятность того, что случайная функция попадет в заданный интервал (а, в) составляет:

                            (3-2)

   Функция  f(x)>0 является плотностью распределения  или   дифференциальной    плотностью распределения – f(x)=F’(x)

Значению f(x) в выборке соответствует величина Wi/∆x, где Wi частота в данном интервале, а ∆x  длина интервала.

Приближенно для функции f(x), которая не имеет интегрального решения

                          (3-4)

ÝНазад

 

Характеристики распределения

Моменты распределения. Для дискретного распределения различают начальные моменты:

                    или                     (4, 4-1)

 

и центральные моменты:

                             или    (5, 5-1)

 Для выборки вместо Мх принимают Хс.

 Для  непрерывных  величин:

                            ;                      (6, 6-1)

Начальный момент первой степени  k=1 является  математическим  ожиданием  или для выборки среднеарифметическим - Хс.

Центральный момент второй степени k=2 является  дисперсией генеральной совокупности или выборки.

Для характеристики отклонения эмпирического отклонения в выборке от нормального распределения служат коэффициенты асимметрии – γ1 и эксцесса – γ2

Коэффициент асимметрии рассчитывается:

                                                         (7)

Всякое симметричное распределение имеет нулевой коэффициент асимметрии γ1=0 . Если кривая плотности сдвигается вправо от среднего значения  Хс, то γ1>0, если кривая сдвигается влево от Хс то γ1<0

Коэффициент эксцесса рассчитывается:

                                                  (8)

Коэффициент эксцесса характеризует островершинность распределения. Если γ2>0,  то распределение более островершинное, чем нормальное. Если γ2<0 ,  то распределение менее островершинное, более  «плоское».

Мода x(mod) – наиболее часто встречающее значение. Для непрерывного распределения это значение х, которое достигает максимума.

Медиана х(med) определяется  как  «средне вероятностное» значение. Это означает, что частота или вероятность события влево и вправо от  медианы равны 0.5. Для  непрерывного распределения медиана делит площадь под кривой  плотности на две равных части. Для эмпирического распределения количество случаев (наблюдений) и их частоты влево и вправо равны.

Квантили, q-квантиль (0<q<1),  это значение х(q), для которого Fx(q)=q, т.е. вероятность равна заданной величине. Квантиль с q=0.5 является медианой.

ÝНазад

 

Дискретные распределения

Биномиальное распределение.

Распределение определяет вероятность события, имеющего два исхода, например, при бросании монеты «орел» - благоприятный исход с вероятностью 0.5, и «решка» - неблагоприятный исход. В общем случае благоприятный исход имеют р и неблагоприятный исход – вероятность q=1 – p. В процессе испытаний вероятность р остается постоянной, т.е. предшествующие испытания не влияют на последующие.

Задача ставится таким образом. При n испытаниях, какова вероятность того, что в серии будет х случаев (х=0, 1, 2, …n), когда  будет благоприятный исход, например, появится «орел».

Вероятность Р(n, x) вычисляется по биномиальному закону:

                                                            (9)

Р- вероятность осуществления события  в отдельном опыте; q=1-p; х=0, 1, 2,…n; C – биномиальный коэффициент:

                                                                 (10)

n!, x!, (n – x)! – факториалы, при n=0, n!=1

n! – находят  по таблицам факториалов или рассчитывают по приближенной формуле Стирлинга:

                                                            (12)

K- поправочный коэффициент  при n>3 K=0.99996+0.08411/n

ÝНазад

 

Распределение Пуассона

Распределение является моделью для описания случайного числа появления  определенных событий в фиксированном  промежутке времени и определенном  пространстве. Закон Пуассона называют законом редких явлений.

 

                        k=0, 1, 2,…                   (13)

ÝНазад

 

Непрерывные распределения

Если х изменяется от а до в, то в случае   равномерного распределения плотности f(x)=const площадь, ограниченная кривой   распределения плотности  (в данном случае прямой линией) равна единице: 1=(в-а)·fx

                          Отсюда при a<x<b  fx=1/(b-a), а при  x<a и x>b  fx=0

    Пример. Поезд метро идет через 2 минуты. Человек равновероятно может ждать метро от 0 до 2 минут.

Нормальный закон распределения

Простым и во многих случаях достаточно точно отображающим характер случайной величины является нормальный закон распределения. Случайная величина х появляется в результате наложения многих факторов. Закон является предельным, т.е. к нему приближается ряд других законов при увеличении числа испытаний.

Плотность нормального распределения определяется функцией:

                                                     (14)

Mx≈Xc, математическое ожидание приближенно равно среднему значению в выборке.

σ≈Sx, среднеквадратическое отклонение генеральной совокупности приближенно равно среднеквадратичному отклонению выборки.

Если обозначить t=(x-Mx)/ σ  и принять σ=1 ,  то в таком  виде в таблицах приводится  значение нормируемой плотности нормального распределения:

                                                                     (14-1)

Соответственно функция вероятности для нормированного закона представлена в виде:

        или            (14-2)

В последнем  случае отсчет функции F0(t) ведется от начала координат. В силу симметрии F0(-ti)= F0(ti). Если t<0, то F(t)=0.5-F0(t), если t>0, то F(t)=0.5+F0(t)

Значения  f(t), F(t), F0(t) для t кратных единицы (1, 2, 3, 4) приведены в таблице

ti

     -4

  -3

-2

-1

0

1

2

3

4

  f(t)

0.00013

0.0044

0.054

0.242

0.389

0.243

0.054

0.0044

0.00013

F(t)

0.00004

0.0014

0.023

0.159

0.500

0.841

0.977

0.9986

0.99997

F0(t)

   ---

 

 

 

0.000

0.341

0.477

0.4986

0.49997

 

Вероятность попадания случайной величины t в интервал (-ti..tj) составляет

                   P(-tj<t<ti)= F0(tj)+F0(ti)

Если  j=i то

                         P(-ti<t<ti)= 2F0(ti)

Если в  выражении   t=(x-Xc)/σ   отклонение   х  Xc   кратно σ то х - Xс=t· σ. Отсюда вероятность события, что х=Хс ± nσ составляет:

 

                         х=Хс ± σ       t=1    P=2·0.341=0.682

х=Хс ± 2σ     t=2    P=2·0.477=0.954

х=Хс ± 3σ     t=3    P=2·0.499=0.997

 

Для  допустимого разброса технологии во многих случаях можно принять оценку х=Хс ± 2σ, что соответствует 95.4 % случаев.

В интервале х=Хс ± 3σ попадает 99.7 % случайных  величин. Отклонение значения х за пределы  можно считать ошибками, промахами, результатами нехарактерной технологии: они обычно подлежат исключению. Отсюда правило «трех сигм».

Но может оказаться при большей выборке, например, n=500 эмпирическое распределение отличается от нормального, оно не симметрично и интервал Хс ± 3σ не соответствует попаданию 99.7 % случайных величин. Тогда необходимо подобрать другое, не симметричное распределение, а для выборки установить числа а и в так, что W(а<x<b)=0.997, и отбросить от каждого края наблюдения вне этого интервала.

ÝНазад

 

Оценка среднего в выборке

Среднеквадратическое отклонение для среднего в выборке Хс определяется:

                                                                         (15)

S(x) - Среднеквадратическое отклонение выборки.

Допускается, что S(Xc) случайная величина, подчиненная нормальному закону. Тогда  погрешность среднего или доверительный интервал, в котором находится математическое ожидание Мх определяется функцией t(p), найденной по заданной вероятности Р, например, Р=0.95, t(p)=1.96. Доверительные интервалы Mx:

                Mх=(Xc-t(p)·S(Xc);  Xc-t(p)·S(Xc))

 

      Обозначив-t(p)·S(Xc)=е, получим доверительные интервалы  Mx=(Xс-e; Xc-e).

ÝНазад

 

Распределение Стьюдента

Если случайная величина Х(х1..xn), то величина:

                                                                         (16)

подчинена закону Стьюдента. t=t(p, m): р   заданная вероятность, m=n-1 – число степеней свободы. Для величины  t  ось  Y является осью симметрии..

                                                       Распределения  Стьюдента

                                   m/p  0.90  0.95   0.99  0.999

                                       5   2.020  2.57  4.03   6.89

                                   10   1.812  2.23  3.17   4.59

                                   20   1.725  2.09  2.84   3.85

                                   30   1.697  2.04  2.75   3.65                           

                                   120   1.658  1.98  2.62   3.37                                         

                                         1.645  1.96  2.58   3.29

 

При  m=∞ , практически при m>30,  закон Стьюдента совпадает с нормальным законом. При  малом количестве наблюдений для оценки доверительного интервала, в котором находится математическое ожидание Мх, t(р) нормального распределения  замещается t(р, m) распределения Стьюдента, которое увеличивает интервал, вследствие ненадежности результатов малой выборки.

ÝНазад

 

Оценка дисперсии выборки

Стандартное отклонение дисперсии выборки определяется  [1, c 311]:

                                                                        (17)

Допускается, что случайная величина S(Dx) подчиняется нормальному  закону. Тогда, задавшись Р и  найдя  t(p) определим доверительные интервалы, в которых находится Dm - дисперсия генеральной совокупности:

 

                         Dm=(Dx – t(p)·S(Dx); Dx + t(p)·S(Dx))

 

Для той же выборки Х(х1..хn)  из малого n, для более точной оценки дисперсии генеральной совокупности Dm  по дисперсии выборки D(Xc)  используется случайная величина

                                                (18)

Величина V имеет табулированное значение χ2 – Xи – квадрат, зависящее от степени свободы m=n – 1 и  от вероятности  Р= χ2 (р, m). В  отличие от  распределения Стьюдента распределение χ2 не является  симметричным. Интервал случайной величины находят по квантилям: а=1-р, левая квантиль имеет вероятность а/2 и ей соответствует) χ2(1), правая квантиль имеет вероятность (1-а)/2  и ей соответствует χ2(2)

                          χ2  – распределение

                m/p    0.99   0.95   0.90   0.10   0.05    0.01

                  5      0.55   1.14   1.61   9.2    11.1   15.1

                10      2.56   3.94   4.86 16.0    18.3   23.2

                20      8.3   10.9   12.4   28,4    31.4   37.6

                30    15.0   18.5   20.6   43.3    43.8   50.9

              100    70.1   77.9   82.4 118.5  124.3 135.8

 

      По заданным  m и р находим χ2(1)  и χ2(2), так что

                         χ2(1)>V> χ2(2),

      Подставляя из (18) значение V и преобразуя неравенство, устанавливаем доверительный интервал, в котором лежит дисперсия генеральной  совокупности Dm:

                m·D(Xc)/ χ2(1)<Dm< m·D(Xc)/ χ2(2)

      Обозначая m·D(Xc)/ χ2(1)=е(1) и m·D(Xc)/ χ2(2)=е(2), запишем

                Dm=(D(Xc)-e(1); D(Xc)+e(2))

 

Пример: Выборка имеет параметры Xc=1.185; Dx=0.001225; Sx=0.035; n=11; m=11-1=10;доверительная вероятность p=0.95.

        1. Оценка математического ожидания по нормальному закону   

       ;

      t(p-0.95)=1.96;

      e=t·S(Xc)=1.96·0.0106=0.021

      Mx=(Xc-e; Xc+e)=(1.185-0.021; 1.185+0.021)=(1.164; 1.206)

      2. Использование распределения Стьюдента.

      S(Xc)=0.0106;

               t(p=0.95,m=10)=2.23

      e=t·S(Xc)=2.23·0.0106=0.024

      Mx=(Xc-e; Xc+e)=(1.185-0.024; 1.185+0.024)=(1.161; 1.209)

      3. Оценка среднеквадратичного отклонения по нормальному закону.

     

      е=t·S(Dx)=1.96·0.000548=0.001074:

                D(m)=(Dx-e;Dx-e)=(0.001225-001074;.001225+0.001074)=(0.000151:0.002299)

         D(m)=(0.0123; 0.0479)

      4. Использование χ2-распределения

      а=1-0.95=0.05; a/2=0.025; 1-a/2=0.975;

          χ2 (1)=(0.025;10)=22.48;

          χ2 (2)=(0.975;10)=3.246; 

      e(1)=m·Dx/ χ2 (1)=10·0.001225/22.48=0.000545;

      e(2)=m·Dx/ χ2 (2)=10·0.001225/3.246=0.003774;

               Dm=(Dx-e(1);Dx+e(2)=(0.001225-.000545;0.001225+0.003774)=(0.00068; 0.00545)

      Dm=(0.0261;0.0738)

ÝНазад

 

Асимметричные распределения

Распределение случайных  величин может существенно отличатся от нормального. Это относится к величинам, которые не могут быть отрицательными и располагаются вблизи нуля, например, содержание серы и кремния в чугуне на выпуске из печи. Такие распределения обычно соответствуют пределам изменения случайной величины 0<x<∞.

      Распределение Максвелла. Распределение характеризуется плотностью при x>0:

                                                (19)

a-параметр распределения:

                                             (19-1)

      Дисперсия  распределения:

                                          (19-2)

      Распределение используется для оценки распределения скорости молекул газов.

      Логарифмическое нормальное (логнормальное)  распределение. Случайная величина х имеет логнормальное распределение, если величина Y=lnx имеет нормальное распределение.

      Плотность логнормального распределения:

                                  (20)

      Мх- математическое ожидание или приближенно среднее значение в выборке величины Lnxi:

                         Mx≈∑Lnxi·Wi

  σ – среднеквадратичное  отклонение случайной величины  Lnxi  от среднего Мх:

                D=σ2=∑(Lnxi  - Mx)2·Wi

Гамма -  распределение. Плотность гамма – распределения  при х>0:

                                                   (21)

a>0, λ>0 – параметры распределения.

Дисперсия распределения:

                 отсюда                                 (21-1 ,21-2)

Для Dx рассчитываем  дисперсию выборки

Мода распределения  X(mod)=(а-1)/λ.

Г(а) – гамма – функция . Для целых чисел Г(а)=(а-1)! . В справочнике [2 c 64] приводится  Г(х) при  1>x>2.  Для х<1 и x>2 гамма – функция вычисляется  по формулам:

                Г(х)=Г(х+1)/х   и   Г(х)=(х – 1)·Г(х – 1)

 

Функция плотности гамма- распределения  f(x) соответствует алгебраической функции у=a·xb·ecx  . При 0<a<1 функция имеет максимум у оси Y и при а=1 соответствует  показательному распределению, при 1<a<2  функция нарастает сразу от 0, при a>2  функция  нарастает более плавно, как для левой половины нормального распределения.

Функция удобна для аппроксимации распределения содержания серы и кремния в чугуне. Так как λ определена по (11-2) через  Dx,  то для выборки подбирается а. При  подборе  распределения,  полезно  ориентироваться на моду  Мд= ( а-1)/λ. , соответствующую максимальному значению в выборке.

ÝНазад

 

Критерий согласия

Если статистическое распределение выровнено с помощью теоретической кривой, то между нею и статистическим распределением необходимо найти расхождение и определить является ли оно случайным  или оно связано с плохо подобранной кривой.

Статистическое и теоретическое распределения представлены таблицей:

Интервалы

х1….х2

x2..x3

 

xk..xk+1

Сумма

Статистическая  частота

w1

w2

wk

∑wi=1

Теоретическая  вероятность

p1

p2

pk

∑pi=1

Сумма ∑w=1, сумма  ∑р→1 т.к. большинство распределений охватывает диапазон  -∞<x<+∞  или 0<x<+∞

Мерой расхождения является величина

                                                (22)

 wi ,pi –статистическая частота и теоретическая вероятность для каждого из k разрядов;

 ci  - характеризует вес разряда

Пирсон показал, что если положить сi =n/рi . (n – общее число наблюдений), то при больших n (сотни наблюдений) функция U зависит только от степеней свободы  r=k-s и приближается к распределению χ2.

 k- число разрядов;

 s- число наложенных связей..

 

            или    (22-1, 22-2)

 

mi количество наблюдений в i –том разряде. npi – можно рассматривать, как число случаев теоретического наблюдения.

Кривые подбираются по условиям, чтобы ∑р=1, по совпадению средних и дисперсий: Мх=Хс и Dm=Dx, эти условия определяют три наложенных связи s=3. Критерий χ2, как сказано, применим для нескольких сот наблюдений, в отдельных разрядах должно быть не менее 5-10 наблюдений. При малых количествах наблюдений, в «хвостах» следует объединять разряды. Считается, что величина р(χ2,r) должна быть не менее 0.1.

ÝНазад

 

Примеры соответствия выборочного и теоретического распределения

На рис 1 приведена выборка основности  доменного шлака CaO/SiO2 (n=522 наблюдения) и кривая  вероятности нормального распределения – рi=f(xi)·∆x. f(xi)-значение плотности в i-том интервале, ·∆x-величина интервала – 0.02. Параметры распределения рассчитаны по величине среднего –Хс=1.164 и среднеквадратичного отклонения Sx=0.058.

На рис 2 приведена выборка по содержанию серы на выпуске чугуна (n=591). Нормальное распределение не соответствует выборке и вероятность в интервалах рассчитана по плотности гамма – распределения (21), параметр λ рассчитывается по (11-2) с учетом величины Sx =0.0122; параметр, а выбирается таким образом, чтобы форма кривой вероятности соответствовала частотному распределению выборки и критерий χ2 был минимальным. Как видно, на рисунках достаточное соответствие между выборочными распределениями и теоретическими законами.  Оно вряд ли может быть более тесным, учитывая случайные отличия выборок. В общей выборке кривые плотности соответствуют состоянию технологии и влиянию случайных факторов - качеству сырья и кокса. В более стабильных условиях (Череповецкий, Н.Липецкий комбинаты) разбег данных уменьшается.

ÝНазад

 

Система случайных величин

Повсеместно встречаются задачи, в которых результаты опытов или наблюдений описываются двумя и более случайными величинами, образующими комплекс или систему. Система двух случайных величин (X,Y) изображается рядом n точек (x1,y1), (x2,y2)…(xn,yn), расположенных на плоскости. Система трех  случайных величин  изображается рядом точек, расположенных в объеме трехмерного пространства. Система из m случайных величин, располагается в пространстве с m измерениями.

Двумерная случайная величина

Выборку двумерной величины удобно представить в виде таблицы:

 

y\x

x1

x2

xi

xn

y1

n11

n21

 ni1

xn1

y2

      n12

n22

 

ni2

xn2

 

 

yj

n1j

nj2

    

nij

xnj

     

    

ym

n2m

n2m

nim

nnm

 

В каждой клетке обозначается количество случаев соответствующего разрядам xi  и  yj,   (разряды включают значения      xi±∆x/2 и yj±∆y/2, ∆x, ∆y-интервалы разрядов).Взамен гистограммы на плоскости следует представить столбики, высотой mij, которые располагаются на плоскости XY. Если просуммировать все значения mij  сначала по х, затем по y, то получим n- количество наблюдений. Величина mij/n=wij z является частостью случая, что величина (x, y) приобретает значение (xi, yj). Очевидно также:

                                    

Подобно тому, что плотность одномерного  эмпирического распределения составляет f(x)=wi/∆x, так и плотность двумерного распределения           f(x,y)=wi j/∆x∆y. Каждой ячейке соответствует wi j   и эмпирическая плотность f(x,y)

Как для одной случайной величины, так рассматриваются законы распределения для двух и более случайных величин,

В общем случае двумерное распределение имеет плотность f(x,y). Плотность  отображается в трехмерной системе координат X,Y, f(xy) в виде пространственной поверхности  «панамы» с некоторым максимумом плотности. Поля «панамы» уходят к приделам, указанным для значений x и y, например, ±∞, или проектируются на плоскость XY в виде кривой, соответствующей заданной плотности f(xy)>0.

Интегральная функция распределения устанавливается:

 

     

Верхние пределы интегралов – x и y. Функция  F(x, y) есть вероятность попадания  в бесконечный прямоугольник R, ограниченный абсциссами -∞ и х и ординатами -∞ и y. F(x,y)=P(x,yÌR)

Для двух и более взаимозависимых величин вводится понятие условного закона распределения. Условным законом распределения величины Х, входящую в систему (X,Y), называется ее закон распределения, вычисленный при условии, что другая величина Y приняла определенное значение.

ÝНазад

 

Нормальное  распределение для двух случайных величин

Плотность нормального распределения  двух случайных величин выражается формулой:

 (13)

Mx, My – математические ожидания случайных величин X и Y, σx  и σy  их среднеквадратические отклонения, r – коэффициент корреляции величин X и Y

                         .        (14)

Kxy – характеристика называется корреляционным моментом (иначе «моментом связи») случайных величин Х и Y

Величина Х подчиняется нормальному закону с центром рассеивания Мх и среднеквадратичным отклонением σх:

                                                      (15)

Аналогично для величины Y

                                           (15-1)

Для независимых величин X и Y коэффициент корреляции r=0 и тогда f(x,y)=f(x)·f(y), в (13) исчезают комплексы с величиной r.

В случае зависимости X и Y при фиксированном значении Х=х возникает условный закон распределения:

                        

                                     (15-2)

                                                                (15-3)

 

Условный  центр ожидания (для текущего значения х), условное математическое ожидание определяется:

                                           (16)

 Эту зависимость называют линейной регрессией y на х. Она определяет линейную зависимость условного математического ожидания M(y/x) от выборочного значения х.

Аналогично  линия регрессии х на y:

                                             (16-1)

 Линии регрессии совпадают только при наличии функциональной линейной зависимости r=1. При независимых Х и Y (r=0) линии регрессии параллельны координатным осям. Для зависимых случайных величин  r  может быть также быть равным нулю, т.е. коэффициент корреляции определяет тесноту линейной  связи.

ÝНазад

 

Регрессионный анализ

При проведении экспериментов или пассивных наблюдений  за производственным процессом необходимо установить зависимость параметра y от  ряда других параметров x1x2…xn , которые соответствуют каждому значению yi  и приняты независимыми. При данном расположении точек корреляционного поля необходимо найти лучшее приближение регрессионной функции y=(x1x2…xn) и оценить погрешность такой аппроксимации.

Как правило, эксперимент имеет определенный физический смысл.  В ряде случаев явление описывается теоретическими уравнениями, тогда облегчается определение независимых параметров и  в задачу входит нахождение коэффициентов известной функции.

Когда имеются две строки экспериментальных значений:

                                   y1, y2,…yi …yn

             x1, x2,…xi …xn

то речь идет о парной корреляции y=f(x). Различают линейную и параболическую регрессию, и если такие зависимости не удовлетворяют, то применяют другие функции. Обычно такие функции  путем замены переменных            x' =Lnx, x'=ex  x'=1/x  и т. д. сводят  к линейным и параболическим.

Если параметр y зависит от нескольких переменных, то речь идет о множественной корреляции обычно линейного типа:

                                   y=(x1x2…xn)

При необходимости повысить точность вводят, как выше, новые переменные, производные от х.

В ряде случаев массив эмпирических данных полезно расслоить (стратифицировать) по характерным признакам, например, листовой прокат по группам и маркам стали, по толщинам. Тогда зависимость становится более выраженной и приобретает физический смысл.

В статистике может присутствовать влияние сильного фактора, который не учитывается в принятой модели. Так устанавливается, что увеличение содержания кремния в чугуне соответствует увеличению основности шлака, что противоречит термодинамике процесса. На практике повышение основности шлака  и содержания кремния в чугуне есть следствие разогрева печи и повышения температуры  чугуна, которая не учитывает статистика.

Результаты зависят от постановки эксперимента. В ковш с чугуном  для десульфурации вводится постоянное количество магния. Выявляется зависимость: чем ниже конечное содержание серы после обработки чугуна, тем выше степень усвоения магния. В эксперименте, где варьируется расход магния зависимость противоположная. Непредставительность данных искажает результаты.

При обработке текущих промышленных результатов целесообразно иметь не менее 100-200, лучше 500-1000 наблюдений (плавок, партий). При этом устраняется такое явление как цикличность процесса. При постановке специальных экспериментов, количество их ограниченно, и тогда важно поставить «чистые» опыты с минимальным количеством случайных возмущений.

ÝНазад

 

Метод наименьших квадратов

Универсальным способом нахождения оптимальной функции, известной структуры является метод наименьших квадратов. Он заключается  в том, что сумма квадратов отклонений  координаты yi  от значений yi искомой функции должна быть минимальной - ∑∆y2 →min

Это означает, что если известен вид искомой функции:

                                   yi=f(xi, a0, a1, …an)

то величина

               

должна принимать минимальное значение путем определения коэффициентов a0, a1, …an , которые играют роль независимых переменных.

Отыскание этих параметров, которые определяют наименьшее значение функции:

                   S=S(a0, a1, …an)   

сводится к решению системы уравнений:

            

Если в эмпирической формуле (16) параметры a0, a1, …an входят линейно, то система уравнений также будет линейной. При решении линейных уравнений не играет роли в каком виде находится функция содержащая х: Lnx, ex, 1/x. Но для случаев, когда х входит в уравнение в виде этих  функций решение является приближенным.

ÝНазад

 

Парная линейная корреляция

Переменные величины можно представить в виде xi –Xc. Линейная зависимость тогда выражается:

                         y=a + b· (x – Xc)

тогда величина

                   S=∑[yi  - (a + b·(xi  - Xc))]2

 должна  быть минимизирована т. е.

               

               

Решая систему двух уравнений с учетом (14) получим:

                 

Решение определяет линию регрессии y на х:

                                    (16)

Аналогично определяется линия регрессии x на y:

                                     (16-1)

Эти зависимости были уже получены (16 и 16-1), исходя из свойств нормального распределения системы двух переменных X и Y. Здесь они получены универсальным методом наименьших квадратов. Решение является приближенным. Для точного решения необходимо знать Mx, My, σx  и σy.

Функции могут быть представлены в виде:

                y=a1 +bx;     x=a2 +by

Коэффициенты а и b можно определить прямым решением или путем преобразования к означенному виду уравнения (16) и (16 – 1)

Если уравнение  y=a1+bx обозначить как y=f(x), то можно оценить ошибку приближения регрессионной линии к массиву значений у:

Коэффициент корреляции определяется отношением:

 или 

Коэффициент корреляции характеризует остаточную дисперсию случайной величины yi относительно расчетной прямой  y=a+bx=f(x). Если значения yi  ложится на прямую f(x), то σ2f(x)=0 и r=1. Это означает функциональную зависимость. Если σ2f(x)=σ2y то σ2f(x)/ σ2y=1 и r=0. Найденная зависимость не улучшает разброс yi , он такой же, как относительно Yc.

ÝНазад

 

Множественная линейная корреляция

Уравнение регрессии: y=f(x1,x2…хn). Для примера положим  n=4, тогда:

у=f(x)=a0+ a1·x1 +a 2·x2 + a3·x3 + a4·x4

S=∑(y – (a0+a1·x1 + a2·x2i + a3·x3i + a4·x4))2

S-cумма квадратов разности экспериментальных значений yi  и расчетных значений  f(xi) должна быть минимальной

. Для этого необходимо выполнить дифференцирование:

              

В результате дифференцирования и алгебраических преобразований получим уравнения:

                a0n     +a1∑x1   +a2∑x2   +a3∑x3    +a4∑x4    =∑y

                a0∑x +a1∑x1x1 +a2∑x2x1+a3∑x3x1+a4∑x4x1=∑ x1y                                              a0∑x2+a1∑x1x2+a2∑x2x2+a3∑x3x2+a4∑x4x2=∑ x2y       

a0∑x3+a1∑x1x3+a2∑x2x3+a3∑x3x3+a4∑x4x3=∑ x3y   

                a0∑x4+a1∑x1x4+a2∑x2x4+a3∑x3x4+a4∑x4x4=∑ x4y

 

Образовалась система из 5 линейных уравнений  с пятью неизвестными a0,  a1, a 2, a3., a4  и известными величинами ∑xixj  и  ∑ xiy. Известно несколько способов решения линейных уравнений. По способу Гаусса в двух смежных уравнениях уравниваются коэффициенты, например, при  а4 одно уравнение вычитается из другого. Таким образом, образуется n-1 уравнений с n-1 неизвестными. Для этих уравнений повторяется процедура исключения членов со следующим неизвестным и образование n-2 уравнений с n-2 неизвестными, и так до тех пор пока не останется 1 уравнение с неизвестным а1. Найдя а1 и подставляя его, в уравнении с двумя неизвестными, находят а2  и т. д. Этот способ удобно программировать для ЭВМ.

Если уравнения решается матричным способом, то D-детерминант системы и W-столбец из свободных членов имеют вид

                 n      ∑x1      ∑x2      ∑x3       ∑x4                 ∑y

                ∑x1   ∑x1x1    ∑x2x1  ∑x3x        ∑x4x1             ∑x1y                                         D       ∑x2  ∑x1x2   ∑x2x2   ∑x3x2   ∑x4x2      W    ∑x2y           

                 ∑x3  ∑x1x3+ ∑x2x3   ∑x3x3   ∑x4x3              ∑x3y    

                ∑x4  ∑x1x4   ∑x2x4   ∑x3x4   ∑x4x4              ∑x4y

 

При решении системы линейных уравнений методом  Крамера находят определитель (детерминант) система D и определители D0, D1, D2, D3, D4, в которых в определителе системы столбцы 1, 2, 3, 4 и 5 заменяются последовательно столбцом W из свободных членов. Тогда

 ;   ; ; ; 

Способы решения, естественно, распространяются на системы с любым количеством n уравнений.

ÝНазад

 

Параболическая аппроксимация

Для примера используем параболу 4-го порядка. Уравнение регрессии.

                 у=f(x)=a0+ a1·x +a 2·x2 + a3·x3 + a4·x4

                S=∑(y – (a0+ a1·x +a 2·x2 + a3·x3 + a4·x4))2

S-cумма квадратов разности экспериментальных значений yi  и расчетных значений  f(xi) должна быть минимальной

. Для этого необходимо выполнить дифференцирование:

              

В результате дифференцирования и алгебраических преобразований получим 5 уравнений с неизвестными a0,  a1, a 2, a3., a4

 

                a0n    +a1∑x  +а2∑x2 +a3∑x3+a4∑x4  =∑y

                a0∑x +a1∑x2 +a2∑x3 +a3∑x4+a4∑x5  =∑ xy                                                            a0∑x2+a1∑x3+a2∑x4 +a3∑x5+a4∑x6  =∑ x2y              

                 a0∑x3+a1∑x4+a2∑x5+a3∑x6+a4∑x7  =∑ x3 y    

                a0∑x4+a1∑x5+a2∑x6+a3∑x7+a4∑x8  =∑ x4y

 

Как и предыдущая система, эта система может быть решена методами Гаусса или Крамера

ÝНазад

 

Метод Чебышева

Регрессионная зависимость описывается параболой 3-го порядка:

 

 у=a0+ a1·x +a 2·x2 + a3·x3

 

Эта парабола рассматривается в виде

 

 

 

 

 э

 

Функции φ1(х), φ2(х), φ3(х) носят  название полиномов Чебышева.

Значения коэффициентов a0, a1, a2, a3:

                        

               

               

               

Все функции и коэффициенты  рассчитываются по экспериментальным значениям xi и yi. В процессе расчета можно остановиться на параболе 1-го порядка – прямой линии, параболе 2-го или 3-го порядка, добавляя к найденным коэффициентам a0, a1 и φ1(х) коэффициенты парабол 2-го или 3-го порядков. По аналогии с φ3(х) и а3 можно рассчитать коэффициенты для парабол высшего порядка

ÝНазад

 

Корреляционное отношение

Критерием эффективности выбора линии регрессии является корреляционное отношение:

                        

σy/x-дисперсия точек относительно линии регрессии ,

 σy- дисперсия относительно общей средней.

Корреляционное отношение  может характеризовать также тесноту связи для линейной корреляции и тесноту связи множественной корреляции, т. е. Оно является более универсальным параметром, чем коэффициент корреляции, который определяет тесноту линейной связи для парной или множественной корреляции. При ηу/x→1 теснота связи эмпирических точек с расчетной кривой или с n-мерным расчетным пространством возрастает.

ÝНазад

 

Линеаризация функций

Если линейная или параболическая аппроксимация не дает желаемого приближения, то используются другие функции, которые проходят линеаризацию путем замены переменных.

 

    Функция             Переменные для линеаризации             Примечание                                                  

                         A. Функции приводятся к виду Y=a+b·X

  1   Y=a+b/X               X’=1/X;

  2   Y=a·Xb                  Y’=LgY; X’=LgX; a’=Lg a                  LgY=Lg a+b·LgX

  3   Y=a·bX                  Y’=LgY:  a’=Lg a:  b’=Lg b                 LgY=Lg a+X·Lg

  4   Y=a+b·LgX          X’=LgX

  5   Y=a·e(bX)               Y’=LnY;   a’=Ln a                                LnY=Ln a+b·X

  6   Y=a·e(b/X)              Y’=LnY;   X’=1/X;  a’=Lna                  LnY=Ln a+b/X

  7   Y=a+b·eX              X’=eX

  8   Y=a+b·e(-X)           X’=e(-X)

  9   Y=a+b·e(1/X)          X’=e(1/X)

10   Y=1/(a+b·X)         Y’=1/Y

11   Y=1/(a+b/X)         Y’=1/Y;   X’=1/X

12   Y=1/(a+b·LgX)     Y’=1/Y;   X’=LgX

13   Y=1/(a+b·eX)        Y’=1/Y;   X’=eX 

14   Y=1/(a+b·e(-X))      Y’=1/Y;   X=e(-X)

 15  Y=1/(a+b·e(1/X))     Y’=1/Y;   X’e(1/X)

                       B. Функции приводятся к виду Y=a+b·X1+c·X2

16    Y=a+b·X+c/X       X1=X;     X2=1/X

17    Y=a+b·X+c·LgX   X1=X;     X2=LgX

18    Y=a+b·X+c·eX       X1=X;     X2=eX

19    Y=a+b·X+c·e--X     X1=X;     X2=e-X

20    Y=a+b·X+c·e1/X     X1=X;     X2=e1/X

21   Y=a+b/X+c·eX        X1=1/X;  X2=eX

22   Y=a·Xb·e(c·X)            Y’=LnY; X1=LnX; X2=X; a’=Lna       LnX=Ln a+b·LnX+c·X

                       C. Функции приводятся к виду Y=a+b·X+c·X2

23      Y=1/(a+b·X+c·X2)  Y’=1/Y

24      Y2=a+b·X+c·X2       Y’=Y2

25      Y=a+b/X+c/X2        X1=1/X: X2=1/X2

26      Y=X/(a+b·X+c·X2)  Y’=X/Y

27      Y=a·e(b·X+c·X2)           Y’=LnY; X1=X; X2=X2; a’=Ln a        LnY=ln a+b·X+c·X2

ÝНазад

 

Понятие стационарного случайного процесса

Такие процессы имеют непрерывные случайные колебания вокруг некоторого среднего значения – характер этих колебаний существенно не изменяется во времени. Стационарный процесс имеет постоянную арифметическую среднюю и дисперсию.

Сохранение уровня технологии определяется сохранением во времени арифметической средней и дисперсии в приделах установленных доверительных интервалов. Обычно технология характеризуется средней величиной  в сравнении с заданной и количеством случаев, выходящих за  доверительные интервалы.

ÝНазад

 

Переходные процессы

Качество продукции в силу инерционности процесса, например, содержание кремния в чугуне, изменяемся  во времени, характеризуемым количеством выпусков.  При изменении параметра процесса, влияющего на характеристику продукции, также проходит определенное время, прежде чем этот параметр начинает оказывать влияние на процесс. Для оценки инерционности процесса используются автокорреляционные и взаимокорреляционные функции.

При расчете автокорреляционной функции переменные х1..хn располагаются во временной последовательности, например, по порядку выпусков. Первоначально переменная Х(х1..хn) коррелируется по (14) сама с собой, т.е. r=1. В следующем этапе расчета последовательность Х сдвигается относительно первоначальной на единицу времени (выпуск) и коррелируется с первоначальной последовательностью. Далее Х сдвигается на две единицы по времени  и т. д. пока коэффициент корреляции  не достигнет некоторой остаточной величины.

Для взаимокорреляционной функции  используются две последовательности Х(х1..хn ) и Y(y1..yn) первоначально  без смещения во времени, а затем с последовательным смещением. Коэффициент корреляции  r <1 в начальный момент  изменяется при смещении во времени и может достигать максимума  при m смещений во времени.

ÝНазад

 

Логостическая кривая

Логостичекая  функция - 14 характеризует процесс перехода из одного стационарного состояния  Y1 в другое Y2 за отрезок времени ∆X. Чтобы перейти к конкретному случаю, например, к характеру изменения по выпускам содержание кремния  с 1.0 % до 2.0 %, уравнение - 14 следует преобразовать к виду:

                     :        

При уменьшении х  у → -с, при увеличении х y→1/(a-c); величины а и с определятся:

                          с=-Y1; а=1/(Y2-Y1)

Чтобы сдвинуть график в область реальных чисел (0, 1, 2, …n выпусков), в показатель степени экспоненты вводится параметр d.

Интенсивность переходного процесса характеризуется  параметрами b и m.

Для линеаризации положим

     и тогда                          

      Величина m подбирается  в процессе корреляции, чтобы величина σy/x   была минимальной.

ÝНазад

 

Заключение

Все технологические величины и показатели качества продукции являются случайными величинами. Они принимают ряд значений  и группируются около среднего значения, а разброс величин характеризуется дисперсией или среднеквадратичным отклонением. Как правило, осуществляется выборочный  контроль технологии и качества продукции. Обширные разработки определяют такую систему  контроля, чтобы она отображала  реальное качество технологии и продукции. Задача технолога заключается в том, чтобы  поддерживать параметры технологии и качества продукции на определенном уровне и не допускать отклонений за браковочные пределы.

Понятие частности в выборке соответствует теоретическому понятию вероятности. Существуют теоретические функции, с помощью  которых можно рассчитать вероятность появления некоторого события в объеме генеральной совокупности или приближенно в объеме выборки. Во многих случаях достаточно точно отображающим характер случайной величины является нормальный закон распределения. С помощью этого закона рассчитываются, с какой вероятностью может принимать заданные значения случайная величина, иначе для нее устанавливаются   доверительные интервалы. Рассчитываются ошибки среднего и  дисперсии выборки и интервалы, в которых находятся математическое ожидание и дисперсия генеральной совокупности. Для малых выборок более объективная оценка этих параметров выполняется с помощью распределения Стьюдента  и χ2 распределения. Для  положительных  случайных величин, приближающихся  к  нулю, следует использовать асимметричные распределения, например, гамма – распределение. Сходимость выборочного и теоретического распределения определяется критерием согласия Пирсона.

Из анализа  нормального двухмерного  распределения вытекают формулы линейных  зависимостей  двух случайных величин и коэффициент корреляции, устанавливающий тесноту линейной связи.

Универсальным  способом нахождения оптимальной  функции известной структуры  является метод наименьших квадратов. Он заключается в том, что сумма квадратов отклонений координаты yi от значения yi расчетной искомой функции  должна быть минимальной - ∑∆y2 →min.,

Задача множественной линейной корреляции сводится к решению n линейных уравнений, по количеству постоянных – свободного члена а0  и коэффициентов аi при независимых переменных xi.  Линейные уравнения решаются матричным способом – методом Крамера, или методом Гаусса – последовательным исключением  неизвестных. Критерием эффективности выбора функции является корреляционное отношение.

Нелинейная зависимость аппроксимируется параболой n –порядка, коэффициенты которой определяются тем же способом, что и для множественной линейной корреляции, или методом Чебышева. Если линейная или параболическая аппроксимация не дает желаемого приближения, то используются другие функции, которые линеаризируются путем замены переменных.

ÝНазад

 

Литература

1. Е.С. Венцель. Теория вероятности. Москва 1962. Государственное издательство физико-математической литературы. 564 с.

2. В.С. Королюк, Н.И.Потенко, А.В. Скороход, А. Ф. Турбин. Справочник по теории вероятности и математической статистике. Москва  1985. «Наука». 640 с.

3. И.Н. Бронштейн, К.А Семендяев. Справочник по математике. Москва 1986. «Наука». 544 с.

4. К.А.Браунли. Статистическая теория и методология в  науке и технике. Москва 1977. «Наука». 407 с.

5. С.А. Айвазян. Статистическое исследование зависимостей. Москва 1968. «Металлургия». 227 с.

6. Л. З. Румшиский. Математическая обработка результатов эксперимента. Москва 1971. «Наука» . 192 с.

7. Л.Ф. Томас. Контроль качества. Перевод с англ. Москва 1968. Издательство стандартов.184 с.

8. ГОСТ 15895 –77. Статистические методы управления качеством. Термины и определения. Москва. 1986.

9. Н.В. Телушкин, В.П.Сегеда. Тепловое регулирование доменного процесса. Донецк. 1965. Издательство «Донбасс». 70 с.

10. И.Н. Мигулин. Корреляционный метод оценки качества переходных процессов. Киев 1963.81 с.

ÝНазад

 



Сайт создан в системе uCoz