|
148. Какими свойствами обладают оценки коэффициентов регрессии, полученные методом наименьших квадратов в случае выполнимости условий теоремы Гаусса-Маркова? Оценки коэффициентов при использовании МНК и при соблюдении условий теоремы Гаусса-Маркова будут наиболее эффективными, линейными (комбинациями Y) и несмещенными.
149. Каковы последствия для свойств оценок коэффициентов регрессии, полученных методом наименьших квадратов, в случае невыполнения условий теоремы Гаусса- Маркова? Если не выполняется второе условие Мат ожидание остатков , то оценка коэффициентов для парной регрессии будет смещена, неэффективна и несостоятельна. Если не выполняется пятое условие, , то появляется гетероскедастичность и оценка будет несмещенной, но неэффективной, но может быть состоятельной.
150. Какие факторы дополнительно учитывает формула для расчета стандартной ошибки в случае множественной регрессии, по сравнению с аналогичной формулой для парной регрессии?
В случае множественной регрессии формула с.о. учитывает еще коэффициент корреляции между независимыми переменными. Если коэффициент корреляции близок к единице, т.е. существует тесная связь между переменными, то с.о. будет большой, что отражает вероятную неточность коэффициентов регрессии.
151. Каковы показатели качества уравнения регрессии в целом? Показатели качества коэффициентов регрессии:
Показатели качества уравнения в целом
152. Для чего используется показатель стандартной ошибки уравнения регрессии? Стандартная ошибка дает общее представление о степени точности коэффициента регрессии, используется при расчете t-статистики и значений p для параметра.
153. Как рассчитывается показатель стандартной ошибки уравнения регрессии? для случая парной регрессии , где - выборочная дисперсия остатков
Если у нас регрессия с 2мя независимыми переменными, то используем
154. Какова связь показателей качества коэффициентов регрессии и показателей качества уравнения в целом в случае множественной регрессии? В случае множественной регрессии t-тест и F-тест выполняют разные функции: t-тесты проверяют значимость коэффициента при каждой переменной по отдельности, в то время как F-тест проверяет их совместную объясняющую способность. Вообще говоря, F-статистика будет значимой, если значима по крайней мере одна из t-статистик. Однако в принципе F-статистика может и не быть значимой в этом случае. Пример: Предположим, что вы оценили не имеющую смысла регрессию с 40 объясняющими переменными, каждая из которых не является действительным детерминантом зависимой переменной. В этом случае F-статистика должна оказаться достаточно низкой, чтобы гипотеза Н0 не была отвергнута. Однако если выполнить t-тесты для коэффициентов наклона на 5%-ном уровне, то в среднем можно ожидать, что 2 из 40 переменных будут иметь «значимые» коэффициенты. В то же время может получиться, что F-статистика будет значимой при незначимости всех t-статистик. Пример: предположим, у вас имеется модель множественной регрессии, которая правильно специфицирована, и коэффициент детерминации высокий. Вероятно, что в этом случае F-статистика высоко значима. Однако если объясняющие переменные сильно коррелированны и модель подвержена сильной мультиколлинеарности, то стандартные ошибки коэффициентов наклона могут оказаться столь велики, что ни одна из t-статистик не будет значима.
155. Каковы особенности анализа коэффициента детерминации в случае множественной регрессии? Как и в парном регрессионном анализе, коэффициент детерминации R2 определяет долю дисперсии у, объясненную регрессией, и эквивалентно определяется как величина . Этот коэффициент никогда не уменьшается (а обычно он увеличивается) при добавлении еще одной переменной в уравнение регрессии, если все ранее включенные объясняющие переменные сохраняются. Если новая переменная на самом деле не относится к уравнению, то увеличение коэффициента R2 будет, вероятно, незначительным.
Скорректированный коэффициент R2, который обычно обозначают , обеспечивает компенсацию для такого автоматического сдвига вверх путем наложения «штрафа» за увеличение числа независимых переменных. Этот коэффициент определяется следующим образом: , где k — число независимых переменных. По мере роста k увеличивается отношение k/(п — k— 1) и, следовательно, возрастает размер корректировки коэффициента R2 в сторону уменьшения. Можно показать, что добавление новой переменной к регрессии приведет к увеличению R2, если и только если соответствующая r-статистика больше единицы (или меньше —1). Следовательно, увеличение R2 при добавлении новой переменной необязательно означает, что ее коэффициент значимо отличается от нуля. Поэтому отнюдь не следует, как можно было бы предположить, что увеличение R2 означает улучшение спецификации уравнения.
156. Для чего используется скорректированный коэффициент детерминации? Для наложения «штрафа» за увеличение числа объясняющих переменных, так как обычный при увеличении числа переменных всегда растет.
157. Как рассчитывается скорректированный коэффициент детерминации и какие факторы определяют его значение? , где k-1 – число объясняющих переменных. Как и обычный , скорректированный зависит от «объяснённой» суммы квадратов отклонений от выборочного среднего (ESS) и остаточной суммы квадратов (TSS), т.е. от , , Y. Но, в отличие от , adjusted не увеличивается при добавлении любых объясняющих переменных. Adjusted увеличится только если соотвестсвующая добавленной переменной t-статистика больше 1 или меньше -1. |
|