Большая Советская Энциклопедия (НА)
Шрифт:
не могут, вообще говоря, все обратиться в нуль, и в этом случае
также не может обратиться в нуль. Н. к. м. предписывает в качестве оценок выбрать такие значения Xj , которые минимизируют сумму S . В тех исключительных случаях, когда условные уравнения совместны и, значит, обладают решением, это решение совпадает с оценками, полученными согласно Н. к. м.
Сумма квадратов S представляет собой квадратичный многочлен относительно переменных Xj ; этот многочлен достигает минимума при таких значениях X1 , X2 ,..., Хm , при которых обращаются
Отсюда следует, что оценки Xj , полученные согласно Н. к. м., должны удовлетворять системе так называемых нормальных уравнений, которая в обозначениях, предложенных Гауссом, имеет вид:
где
Оценки Xj , получающиеся в результате решения системы нормальных уравнений, лишены систематических ошибок (Exj = xj ); дисперсии Dxj ; величин Xj равны kdjj /d , где d — определитель системы (5), а djj — минор, соответствующий диагональному элементу [раj aj ] (иными словами, djj /d — вес оценки Xj ). Если множитель пропорциональности k (k называется дисперсией на единицу веса) заранее неизвестен, то для его оценки, а также для оценки дисперсии Dxj служат формулы:
k » S/ (n– m ) и Dxj » s2j = Sdjj /d (n– m )
(S — минимальное значение исходной суммы квадратов). При некоторых общих предположениях можно показать, что если количество наблюдений n достаточно велико, то абсолютная погрешность приближённого равенства xi » Xj меньше tsj с вероятностью, близкой к значению интеграла (1). Если случайные ошибки наблюдений di подчиняются нормальному распределению, то все отношения (Xj– xj )/sj распределены по закону Стьюдента с n– m степенями свободы [точная оценка абсолютной погрешности приближённого равенства производится здесь с помощью интеграла (2) так же, как в случае одного неизвестного]. Кроме того, минимальное значение суммы S в вероятностном смысле не зависит от X1 , X2 ,..., Xm и поэтому приближённые значения дисперсий оценок Dxj » s2j не зависят от самих оценок Xj .
Один из наиболее типичных случаев применения Н. к. м. — «выравнивание» таких результатов наблюдений Yi , для которых в уравнениях (3) aij = aj (ti ), где aj (t ) — известные функции некоторого параметра t (если t — время, то t1 , t2 ,... — те моменты времени, в которые производились наблюдения). Особенно часто встречается в приложениях случай так называемой параболической интерполяции, когда aj (t ) — многочлены [например, a1 (t ) = 1, a2 (t ) = t , a3 (t ) = t2 ,...
Пример. Для оценки точности одного из методов химического анализа этим методом определялась концентрация CaO в десяти эталонных пробах заранее известного состава. Результаты равноточных наблюдений указаны в таблице (i — номер эксперимента, ti — истинная концентрация CaO, Ti — концентрация CaO. определённая в результате химического анализа, Yi = Ti– ti — ошибка химического анализа):
i | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
ti | 4 | 8 | 12,5 | 16 | 20 | 25 | 31 | 36 | 40 | 40 |
Yi | – 0,3 | – 0,2 | – 0,4 | – 0,4 | – 0,2 | – 0,5 | + 0,1 | – 0,5 | – 0,6 | – 0,5 |
Если результаты химического анализа не имеют систематических ошибок, то Eyi = 0. Если же такие ошибки имеются, то в первом приближении их можно представить в виде: Eyi = a + bti (a называется постоянной ошибкой, а bti — методической ошибкой) или, что то же самое,
где
Для отыскания оценок a и b достаточно оценить коэффициенты
Условные уравнения в данном случае имеют вид:
поэтому ai1 = 1, ai2 = ti– t (согласно предположению о равноточности наблюдений, все pi = 1). Так как
то система нормальных уравнений записывается особенно просто:
[a1 a1 ] X1 = [Ya1 ]; [a2 a2 ] X2 = [Ya2 ],
где
Дисперсии компонент решения этой системы суть
где k — неизвестная дисперсия на единицу веса (в данном случае k — дисперсия любой из величин Yi ). Так как в этом примере компоненты решения принимают значения X1 = -0,35 и X2 = -0,00524, то