|
||||
|
56. Методы регрессионного анализа Термин «регрессия» ввел английский психолог и антрополог Ф.Гальтон. Для точного описания уравнения регрессии необходимо знать чакон распределения результативного показателя у. В статистической практике обычно приходится ограничиваться поиском подходящих аппроксимаций для неизвестной истинной функции регрессии ffc), так как исследователь не располагает точным знанием условного закона распределения вероятностей анализируемого результатирующего показателя у при заданных значениях аргумента х. Рассмотрим взаимоотношение между истинной f (х) = = М(у/х), модельной регрессией у и оценкой у регрессии. Пусть результативный показатель у связан с аргументом х соотношением: у=2х1,5+? где ? – случайная величина, имеющая нормальный закон распределения. Причем M? = 0 и d? – ?2. Истинная функция регрессии в этом случае имеет вид: f(х) = М(у/х) = 2хi1,5+ ? Для наилучшего восстановления по исходным статистическим данным условного значения результативного показателя f(x) и неизвестной функции регрессии /(х) = М(у/х) наиболее часто используют следующие критерии адекватности (функции потерь). Согласно методу наименьших квадратов минимизируется квадрат отклонения наблюдаемых значений результативного показателя y(i = 1, 2, ..., п) от модельных значений yi= f(хi), где хi– значение вектора аргументов в i-м наблюдении: ?(yi– f(хi)2 > min Получаемая регрессия называется среднеквадратической. Согласно методу наименьших модулей, минимизируется сумма абсолютных отклонений наблюдаемых значений результативного показателя от модульных значений: yi = f(xi) И получаем среднеабсолютную медианную регрессию: Регрессионный анализ – это метод статистического анализа зависимости случайной величины у от переменных хj(j=1,2, ..., k), рассматриваемых в регрессионном анализе как неслучайные величины, независимо от истинного закона распределения хj. |
|
||
Главная | В избранное | Наш E-MAIL | Добавить материал | Нашёл ошибку | Вверх |
||||
|