В моделях, нелинейных по включенным переменным, регрессоры, имеющие степень, отличную от первой, заменяются другими независимыми переменными первой степени, а к уже полученной модели с новыми переменными (она становится линейной по параметрам) применяют МНК для оценки ее параметров. Так, в пара-
переменные, например: Z =хь г2 = Х Ь и тогда получим двухфакторную линейную модель вида:
для оценки параметров которой можно использовать МНК.
Соответственно для полинома третьего порядка у = а0 + яi • Xj + + а2 ? xj + а2 ? х% + v после замены на z = хь х2 = х, = х| получим трехфакторную линейную модель:
а для полинома к-го порядка:
используя соответствующие замены, будет получена множественная линейная модель с к объясняющими переменными: у = а0 + ах ? Z + а2 ? Z2 + «3 • Zi + ••• + ак ? Zk + V.
Таким образом, полином любого порядка сводится к модели линейной множественной регрессии с ее методами оценивания параметров и проверки гипотез теоремы Гауса — Маркова. Большинство исследователей отмечает, что для нелинейной полиномиальной регрессии чаще всего используется парабола второй степени, а в отдельных случаях полином третьего порядка. Ограничения в использовании полиномов более высоких степеней связаны с требованием однородности исследуемой совокупности: чем выше порядок полинома, тем больше изгибов имеет кривая и соответственно менее однородна совокупность по результативному признаку.
Применение МНК для оценки параметров параболы второй степени приводит к следующей системе нормальных уравнений [7, с. 63]:
Для преобразования гиперболической регрессии (обратной мо-
дели) у = а0+ —-и к линейному виду используется замена z = —•
- МОДЕЛИ, НЕЛИНЕЙНЫЕ ПО ПАРАМЕТРАМ
- Разница между линейным уравнением и нелинейным уравнением
- Видео: Разница между линейным уравнением и нелинейным уравнением | Сравните разницу между похожими терминами
- Содержание:
- 1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к. — презентация
- Похожие презентации
- Презентация на тему: » 1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к.» — Транскрипт:
- 🌟 Видео
Видео:Линейное уравнение с двумя переменными. 7 класс.Скачать
МОДЕЛИ, НЕЛИНЕЙНЫЕ ПО ПАРАМЕТРАМ
Для оценки моделей, нелинейных по параметрам, например, степенных или показательных, непосредственное применение МНК невозможно, так как необходимым условием применимости МНК является их линейность по коэффициентам уравнения регрессии. В данном случае преобразованием, которое приводит уравнение регрессии к линейному виду, является логарифмирование.
Рассмотрим процесс логарифмирования на примере нелинейной по параметрам парной степенной модели вида
где а0 и а у — параметры модели.
Параметр ах данной степенной модели представляет собой значение эндогенной переменной, полученное при единичном значении регрессора. Чтобы дать экономическую интерпретацию параметру ах данной модели, продифференцируем данное уравнение
Таким образом, параметр ах представляет собой эластичность переменной у по переменной х. Уравнение (4.1) не является линейным. Прологарифмируем обе его части и сделаем соответствующую замену
Спецификация (4.2) называется двойной логарифмической моделью [1, с. 183], так как и эндогенная переменная, и регрессор используются в логарифмической форме. Второе название модели — модель с постоянной эластичностью — следует из то, что параметр ах, являясь константой, представляет собой эластичность.
Уравнение (4.2) линейно относительно логарифмов переменных, поэтому, вводя обозначение Y = 1п(у), получаем спецификацию линейной модели, к которой при соответствующем включении случайного возмущения применим МНК:
Модели типа (4.1) используются в микроэкономике для построения производственных функций, функций потребления, функций спроса и т.д.
Спецификации линейных моделей, включающих или только логарифмы значений эндогенной переменной или только логарифмы значений регрессора, называются полулогарифмическими. Так, модель со спецификацией вида:
относится к полулогарифмическим моделям и называется лог-ли- нейной моделью. Для преобразования данной модели к линейному виду следует произвести замену Y= 1п(у).
Полулогарифмические модели обычно используются для измерения темпа прироста экономических переменных.
Следующие полулогарифмические модели названы линейно-логарифмическими.
Полулогарифмическая модель вида
называется линейно-логарифмической моделью. Она приводится к линейной путем замены X = 1п(х). Получаем модель вида
Модель (4.5) используется при исследовании влияния процентного изменения регрессора на абсолютное изменение эндогенной переменной, например, при моделировании влияния процентного изменения денежной массы на изменение объема ВНП.
Видео:Решение системы линейных уравнений с двумя переменными способом подстановки. 6 класс.Скачать
Разница между линейным уравнением и нелинейным уравнением
Видео:ЛИНЕЙНЫЕ УРАВНЕНИЯ - Как решать линейные уравнения // Подготовка к ЕГЭ по МатематикеСкачать
Видео: Разница между линейным уравнением и нелинейным уравнением | Сравните разницу между похожими терминами
Видео:Линейное уравнение с одной переменной. 6 класс.Скачать
Содержание:
Линейное уравнение против нелинейного уравнения
В математике алгебраические уравнения — это уравнения, которые составлены с использованием полиномов. В явном виде уравнения будут иметь вид P (Икс) = 0, где Икс вектор из n неизвестных переменных, а P — многочлен. Например, P (x, y) = 4x 5 + ху 3 + y + 10 = 0 — алгебраическое уравнение с двумя переменными, записанное явно. Также (x + y) 3 = 3x 2 у — 3zy 4 является алгебраическим уравнением, но в неявной форме и примет вид Q (x, y, z) = x 3 + y 3 + 3xy 2 + 3zy 4 = 0, когда-то написано явно.
Важной характеристикой алгебраического уравнения является его степень. Он определяется как наивысшая степень членов уравнения. Если терм состоит из двух или более переменных, сумма показателей каждой переменной будет считаться мощностью члена. Заметим, что согласно этому определению P (x, y) = 0 имеет степень 5, а Q (x, y, z) = 0 — степень 5.
Линейные уравнения и нелинейные уравнения представляют собой два раздела, определенные на системе алгебраических уравнений. Степень уравнения — это фактор, который отличает их друг от друга.
Что такое линейное уравнение?
Линейное уравнение — это алгебраическое уравнение степени 1. Например, 4x + 5 = 0 — это линейное уравнение одной переменной. x + y + 5z = 0 и 4x = 3w + 5y + 7z — линейные уравнения с 3 и 4 переменными соответственно. В общем случае линейное уравнение от n переменных будет иметь вид m1Икс1 + м2Икс2 +… + Мп-1Иксп-1 + мпИксп = б. Здесь xяS — неизвестные переменные, mяS и b — действительные числа, где каждое из mя не равно нулю.
Такое уравнение представляет собой гиперплоскость в n-мерном евклидовом пространстве. В частности, линейное уравнение с двумя переменными представляет собой прямую линию в декартовой плоскости, а линейное уравнение с тремя переменными представляет собой плоскость в трехмерном евклидовом пространстве.
Что такое нелинейное уравнение?
Квадратное уравнение — это алгебраическое уравнение, которое не является линейным. Другими словами, нелинейное уравнение — это алгебраическое уравнение степени 2 или выше. Икс 2 + 3x + 2 = 0 — нелинейное уравнение с одной переменной. Икс 2 + y 3 + 3xy = 4 и 8yzx 2 + y 2 + 2z 2 + x + y + z = 4 — примеры нелинейных уравнений от 3 и 4 переменных соответственно.
Нелинейное уравнение второй степени называется квадратным уравнением. Если степень равна 3, то это называется кубическим уравнением. Уравнения степени 4 и степени 5 называются уравнениями четвертой и пятой степени соответственно. Было доказано, что не существует аналитического метода для решения любого нелинейного уравнения степени 5, и это верно и для любой более высокой степени. Решаемые нелинейные уравнения представляют собой гиперповерхности, которые не являются гиперплоскостями.
В чем разница между линейным уравнением и нелинейным уравнением?
• Линейное уравнение — это алгебраическое уравнение степени 1, а нелинейное уравнение — это алгебраическое уравнение степени 2 или выше.
• Несмотря на то, что любое линейное уравнение разрешимо аналитически, в нелинейных уравнениях это не так.
• В n-мерном евклидовом пространстве пространство решений линейного уравнения с n переменными является гиперплоскостью, а пространство решений нелинейного уравнения с n переменными — гиперповерхностью, которая не является гиперплоскостью. (Квадрики, кубические поверхности и др.)
Видео:Алгебра 7 Линейное уравнение с одной переменнойСкачать
1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к. — презентация
Презентация была опубликована 8 лет назад пользователемГригорий Черников
Похожие презентации
Видео:Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ. | МатематикаСкачать
Презентация на тему: » 1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к.» — Транскрипт:
1 1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к линейным.
2 2 Модели линейные по переменным и параметрам: Модели линейные по параметрам и нелинейные по переменным: НЕЛИНЕЙНЫЕ МОДЕЛИ Модели нелинейные по переменным. Замена переменных приводит к модели линейной и по параметрам и по переменным.
3 3 Модели линейные по переменным и параметрам : Модели линейные по параметрам и нелинейные по переменным : Модели нелинейные по параметрам: ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Некоторые модели нелинейные по параметрам могут быть линеаризованы.
4 4 бананы доход (фунт) ($10,000) хозяйство Y X ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Пример: зависимость потребления бананов от дохода для 10 хозяйств.
5 5 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Точечная диаграмма. X Y
F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A» title=»6. reg Y X Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 17.44 Model | 58.8774834 1 58.8774834 Prob > F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A» > 6 6. reg Y X Source | SS df MS Number of obs = F( 1, 8) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] X | _cons | ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Построение регрессионной модели. Коэффициент при X значим, коэффициент детерминации R 2 высок. Хорошая ли это модель? Y=4,6+0,84*X F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A»> F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— Adj R-squared = 0.6463 Total | 85.8812475 9 9.54236083 Root MSE = 1.8372 —————————————————————————— Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— X |.8447878.2022741 4.176 0.003.378343 1.311233 _cons | 4.618667 1.255078 3.680 0.006 1.724453 7.512881 —————————————————————————— ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Построение регрессионной модели. Коэффициент при X значим, коэффициент детерминации R 2 высок. Хорошая ли это модель? Y=4,6+0,84*X»> F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A» title=»6. reg Y X Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 17.44 Model | 58.8774834 1 58.8774834 Prob > F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A»>
7 7 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Поведение отклонений от линии регрессии не похожа на случайную величину, что свидетельствует о некорректности модели. X Y
8 8 Измененная модель: ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Обратно пропорциональная модель. Y увеличивается вместе с X если 2
9 9 бананы доход (фунтов) ($10,000) хозяйства Y X Z ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ.
10 10 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Зависимость Y от Z. Y Z
F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————» title=»11. g Z=1/X. reg Y Z Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 286.10 Model | 83.5451508 1 83.5451508 Prob > F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————» > 11 11. g Z=1/X. reg Y Z Source | SS df MS Number of obs = F( 1, 8) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] Z | _cons | ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Вычисление регрессионных коэффициентов регрессионной модели. Высокая объяснительная способность модели. F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————«> F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+—————————— Adj R-squared = 0.9694 Total | 85.8812475 9 9.54236083 Root MSE =.54038 —————————————————————————— Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— Z | -10.98865.6496573 -16.915 0.000 -12.48677 -9.490543 _cons | 12.48354.2557512 48.811 0.000 11.89378 13.07331 —————————————————————————— ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Вычисление регрессионных коэффициентов регрессионной модели. Высокая объяснительная способность модели.»> F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————» title=»11. g Z=1/X. reg Y Z Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 286.10 Model | 83.5451508 1 83.5451508 Prob > F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————«>
12 12 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ График зависимости Y от Z. Z Y
13 13 НЕЛИНЕЙНЫЕ МОДЕЛИ График зависимости Y от Z показывает лучшую зависимость и большую случайность отклонений. X Y
14 14 ЭластичностьY по X есть пропорциональное изменение Y относительно пропорционального изменения X: ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Y Эластичность в любой точке – это отношение тангенса угла наклона касательной к тангенсу угла наклона радиус вектора. Значение эластичности для данного рисунка
1. A O Y X» title=»15 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичность > 1. A O Y X» > 15 15 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичность > 1. A O Y X 1. A O Y X»> 1. A O Y X»> 1. A O Y X» title=»15 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичность > 1. A O Y X»>
16 16 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Эластичность для прямой непостоянна. xO A Y X
17 17 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Функция с одинаковой эластичностью для всех X..
18 18 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичностью Y X
19 19 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Y X
20 20 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ 2 = 1, прямая линия. Линейная модель может быть частным случаем модели с постоянной эластичностью Y X
21 21 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ. Y X
22 22 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Линеаризация модели.
23 23 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Точечная диаграмма зависимости FDHO, трат на еду дома, от EXP, общего годового дохода. (в $, 1995г. для 869 хозяйств США). FDHO EXP
F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————» title=»24. reg FDHO EXP Source | SS df MS Number of obs = 869 ———+—————————— F( 1, 867) = 381.47 Model | 915843574 1 915843574 Prob > F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————» > 24 24. reg FDHO EXP Source | SS df MS Number of obs = F( 1, 867) = Model | Prob > F = Residual | e R-squared = Adj R-squared = Total | e Root MSE = FDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] EXP | _cons | ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Построение регрессии FDHO от EXP. На еду тратится около 5% годового дохода. Константа смысла не имеет. FDHO=1916,1+0,05*EXP F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————«> F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+—————————— Adj R-squared = 0.3047 Total | 2.9974e+09 868 3453184.55 Root MSE = 1549.5 —————————————————————————— FDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— EXP |.0528427.0027055 19.531 0.000.0475325.0581529 _cons | 1916.143 96.54591 19.847 0.000 1726.652 2105.634 —————————————————————————— ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Построение регрессии FDHO от EXP. На еду тратится около 5% годового дохода. Константа смысла не имеет. FDHO=1916,1+0,05*EXP»> F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————» title=»24. reg FDHO EXP Source | SS df MS Number of obs = 869 ———+—————————— F( 1, 867) = 381.47 Model | 915843574 1 915843574 Prob > F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————«>
25 25 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Регрессионная линия. EXP FDHO
26 26 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Подбор логарифмической модели. Точечная диаграмма логарифма FDHO в зависимости от логарифма EXP. LGFDHO LGEXP
F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»27. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq» > 27 27. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = F( 1, 866) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] LGEXP | _cons | ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Регресссионная логарифмическая модель LGFDHO от LGEXP. F = 0.0000 Residual | 184.579612 866.213140429 R-sq»> F = 0.0000 Residual | 184.579612 866.213140429 R-squared = 0.3138 ———+—————————— Adj R-squared = 0.3130 Total | 268.995781 867.310260416 Root MSE =.46167 —————————————————————————— LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— LGEXP |.4800417.0241212 19.901 0.000.4326988.5273846 _cons | 3.166271.244297 12.961 0.000 2.686787 3.645754 —————————————————————————— ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Регресссионная логарифмическая модель LGFDHO от LGEXP.»> F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»27. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq»>
F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»28. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq» > 28 28. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = F( 1, 866) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] LGEXP | _cons | ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Коэффициент эластичности 0.48.Является ли он правдоподобным? Поскольку еда – предмет первой необходимости, то коэффициент эластичности функции спроса должен быть меньше 1. Расходы на еду растут медленнее, чем рост дохода. ( e 3.17 = 23.8) F = 0.0000 Residual | 184.579612 866.213140429 R-sq»> F = 0.0000 Residual | 184.579612 866.213140429 R-squared = 0.3138 ———+—————————— Adj R-squared = 0.3130 Total | 268.995781 867.310260416 Root MSE =.46167 —————————————————————————— LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— LGEXP |.4800417.0241212 19.901 0.000.4326988.5273846 _cons | 3.166271.244297 12.961 0.000 2.686787 3.645754 —————————————————————————— ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Коэффициент эластичности 0.48.Является ли он правдоподобным? Поскольку еда – предмет первой необходимости, то коэффициент эластичности функции спроса должен быть меньше 1. Расходы на еду растут медленнее, чем рост дохода. ( e 3.17 = 23.8)»> F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»28. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq»>
29 29 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Точечная диаграмма и логарифмическая модель. LGFDHO LGEXP
30 30 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Сравнение линейной и логарифмической модели. В середине близки, а по краям сильное расхождение. В нуле значение равно нулю, что соответствует здравому смыслу. Для больших доходов доля, расходуемая на продовольствие должна падать. EXP FDHO
31 31 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Относительное изменение Y в расчете на единицу абсолютного изменения X равны 2.
32 32 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Оценка зависимости ПЛАТЫ (Earnings) от продолжительности обучения (S).
33 33 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Интерпретация 2.. Если 2 мало (
34 34 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ 1 — это значение Y при X =0
35 35 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Линеаризация модели.
F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»36. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» > 36 36. reg LGEARN S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | Регрессионная полулогарифмическая модель. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ LNEARN = 1,36+0,079*S EARN = e 1,36 e 0,079*S F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+—————————— Adj R-squared = 0.1395 Total | 153.801893 569.270302096 Root MSE =.48229 —————————————————————————— LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0792256.0082061 9.655 0.000.0631077.0953435 _cons | 1.358919.1127785 12.049 0.000 1.137406 1.580433 —————————————————————————— Регрессионная полулогарифмическая модель. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ LNEARN = 1,36+0,079*S EARN = e 1,36 e 0,079*S»> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»36. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«>
37 37 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Приблизительная оценка. β 2 = 0.079, то есть каждый год обучения приблизительно ведет к увеличению зарплаты на 7.9%. Более точная оценка дает значение e 0,079 = 1,082, то есть увеличение на 8.2%.
F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»38. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» > 38 38. reg LGEARN S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | log 1 =1,36. Отсюда 1 = e 1.36 = Буквально, человек без образования получает 3,9$ в час. Но такая интерпретация не вполне правомочна, поскольку это значение находится за пределами интервала значений выборки. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+—————————— Adj R-squared = 0.1395 Total | 153.801893 569.270302096 Root MSE =.48229 —————————————————————————— LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0792256.0082061 9.655 0.000.0631077.0953435 _cons | 1.358919.1127785 12.049 0.000 1.137406 1.580433 —————————————————————————— log 1 =1,36. Отсюда 1 = e 1.36 = 3.90. Буквально, человек без образования получает 3,9$ в час. Но такая интерпретация не вполне правомочна, поскольку это значение находится за пределами интервала значений выборки. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ»> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»38. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«>
39 39 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Точечная диаграмма значений и полулогарифмическая модель.
40 40 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Сравнение полулогарифмической модели с линейной моделью. Полулогарифмическая модель предпочтительнее, так как более точно предсказывает плату для высоких и низких уровней обучения. Нет отрицательных значений константы.
41 41 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ При линеаризации не учитывался случайный член. В ряде нелинейных моделей случайный член аддитивен. То же возмущение будет и для преобразованного уравнения.
42 42 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ С логарифмическими моделями дело обстоит сложнее. В них после линеаризации добавляется мультипликативный член v = e u. Положительные значения u приводят к увеличению значения Y, отрицательные – к уменьшению.
43 43 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ v f(v)f(v) Кроме условий Гаусса-Маркова, необходимо, чтобы величина u была нормально распределена. Иначе невозможно использовать t и F тесты. Нормальное распределение показывает, что случайное возмущение – это сумма многих малых неучтенных возмущений.
44 44 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ v f(v)f(v) Нормальное возмущение u будет в том случае, если v имеет логнормальное распределение, плотность которого приведена на графике. Его среднее равно v =1, тогда u = 0.
45 45 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Такое же мультипликативное распределение характерно и для полулогарифмических моделей. v f(v)f(v)
46 46 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Точечная диаграмма для регрессионной модели зависимости выплат от обучения. Можно видеть несколько точек существенно отклоняющихся от регрессионной прямой.
47 47 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Такая же диаграмма для полулогарифмической модели демонстрирует отсутствие резкого отклонения от модели.
48 48 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Сравнение нормированных гистограмм распределений случайных остатков для линейной и полулогарифмической моделей. Нормировка – приведение стандартных отклонений к 1 для сравнения. Для обеих моделей распределение близко к нормальному, но для полулогарифмической модели оно более симметрично.
49 49 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Численные методы поиска регрессионных коэффициентов для нелинеаризуемых задач на примере модели потребления бананов. Метод нелинейной оптимизации. X Y
50 50 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Предположим нам известно, что 1 = 12. Поиск 2 на основе критерия минимизации суммы квадратов остатков. Предположим, что 2 = 6. Y X
51 51 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Строим модели и ищем сумму квадратов остатков. Y X
52 52 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Строим модели и ищем сумму квадратов остатков. Y X
53 53 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ RSS=29,17. b 2 = -6 b 2 = -7 X Y Y e e Total29.17 ^
54 54 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Повторим процедуру, модифицировав значение коэффициента на -7. Y X
55 55 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ На графике видно, что это приближение лучше. Y X
56 56 b 2 = -6 b 2 = -7 X Y Y e e 2 Y e e Total НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Вычисленное значение RSS свидетельствует о том же. ^^
57 57 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Повторяя процедуру далее можно увидеть, что оптимальное решение лежит между -10 и -11. b 2 RSS
58 58 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Уменьшая интервал и шаг можно получить новое приближение на интервале и С точностью до 0,01 получаем приближение 10,08. Повторяя эту же процедуру по двум параметрам можно получить решение с заданной точностью. b 2 RSS
59 59 ТЕСТЫ КОКСА-БОКСА Проблема сравнения качества альтернативных регрессионных моделей. Когда альтернативные регрессионные модели имеют одинаковые переменные, то лучшая выбирается по критерию максимума R 2. Что делать, когда переменные различны, как например в линейной и логарифмической моделях.
60 60 ТЕСТЫ КОКСА-БОКСА Среднее арифметическое логарифма Y сводится к среднему геометрическому Y. Среднее в одной модели связано со средним в другой. Усреднение позволяет сравнивать модели между собой по остаткам.
61 61 ТЕСТЫ КОКСА-БОКСА Нормировка значений зависимых переменных в полулогарифмической модели по методу Зарембки.
χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде» title=»62 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 — распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде» > 62 62 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 — распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS будет лучше. χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде»> χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS будет лучше.»> χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде» title=»62 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 — распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде»>
63 63. sum LGEARN Variable | Obs Mean Std. Dev. Min Max LGEARN | EARNSTAR=EARNINGS/exp( ) LGEARNST=ln(EARNSTAR) ТЕСТЫ КОКСА-БОКСА Найдем среднее для LGEARN и обозначим LGEARNST=ln( EARNSTAR).
F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-» title=»64. reg EARNSTAR S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 65.64 Model | 30.8184248 1 30.8184248 Prob > F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-» > 64 64. reg EARNSTAR S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EARNSTAR | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | ТЕСТЫ КОКСА-БОКСА Найдем регрессионную зависимость нормированного значения EARNSTAR от S и определим RSS. F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-«> F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+—————————— Adj R-squared = 0.1020 Total | 297.516494 569.522876089 Root MSE =.68523 —————————————————————————— EARNSTAR | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0944558.0116589 8.102 0.000.0715559.1173557 _cons | -.1224433.1602326 -0.764 0.445 -.437164.1922774 —————————————————————————— ТЕСТЫ КОКСА-БОКСА Найдем регрессионную зависимость нормированного значения EARNSTAR от S и определим RSS.»> F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-» title=»64. reg EARNSTAR S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 65.64 Model | 30.8184248 1 30.8184248 Prob > F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-«>
F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————» title=»65. reg LGEARNST S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.6812545 1 21.6812545 Prob > F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————» > 65 65. reg LGEARNST S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARNST | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | ТЕСТЫ КОКСА-БОКСА То же сделаем для нормированной переменной LGEARNST. F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————«> F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+—————————— Adj R-squared = 0.1395 Total | 153.801897 569.270302103 Root MSE =.48229 —————————————————————————— LGEARNST | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0792256.0082061 9.655 0.000.0631077.0953435 _cons | -1.071214.1127785 -9.498 0.000 -1.292727 -.8496999 —————————————————————————— ТЕСТЫ КОКСА-БОКСА То же сделаем для нормированной переменной LGEARNST.»> F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————» title=»65. reg LGEARNST S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.6812545 1 21.6812545 Prob > F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————«>
66 66 ТЕСТЫ КОКСА-БОКСА Значение статистики Оно существенно выше 2 с 1 степенью свободы на 0.1% уровне, исходя из чего можно утверждать о значимости предпочтения полулогарифмической модели линейной.
🌟 Видео
Алгебра 11 класс (Урок№43 - Нелинейные уравнения и неравенства с двумя переменными.)Скачать
МЕТОД ПОДСТАНОВКИ 😉 СИСТЕМЫ УРАВНЕНИЙ ЧАСТЬ I#математика #егэ #огэ #shorts #профильныйегэСкачать
Парная регрессия: линейная зависимостьСкачать
Как решить уравнение #россия #сша #америка #уравненияСкачать
9 класс, 8 урок, Уравнения с двумя переменнымиСкачать
Решение систем уравнений методом подстановкиСкачать
Алгебра 7 Линейное уравнение с двумя переменными и его графикСкачать
Алгебра 11 класс (Урок№42 - Линейные уравнения и неравенства с двумя переменными.)Скачать
Графический способ решения систем уравнений. Алгебра, 9 классСкачать
ГРАФИК ЛИНЕЙНОГО УРАВНЕНИЯ С ДВУМЯ ПЕРЕМЕННЫМИ 7 КЛАСС видеоурокСкачать
Параметры с нуля до уровня ЕГЭ. Линейные уравнения. Математик МГУСкачать
Эконометрика Линейная регрессия и корреляцияСкачать
Эконометрика. Линейная парная регрессияСкачать