Линейным по параметрам и нелинейным по переменным является уравнение

Видео:ЛИНЕЙНЫЕ УРАВНЕНИЯ - Как решать линейные уравнения // Подготовка к ЕГЭ по МатематикеСкачать

ЛИНЕЙНЫЕ УРАВНЕНИЯ - Как решать линейные уравнения // Подготовка к ЕГЭ по Математике

МОДЕЛИ, НЕЛИНЕЙНЫЕ ПО ПЕРЕМЕННЫМ

В моделях, нелинейных по включенным переменным, регрессоры, имеющие степень, отличную от первой, заменяются другими независимыми переменными первой степени, а к уже полученной модели с новыми переменными (она становится линейной по параметрам) применяют МНК для оценки ее параметров. Так, в пара-

переменные, например: Zь г2 = Х Ь и тогда получим двухфакторную линейную модель вида:

Линейным по параметрам и нелинейным по переменным является уравнение

для оценки параметров которой можно использовать МНК.

Соответственно для полинома третьего порядка у = а0 + яi • Xj + + а2 ? xj + а2 ? х% + v после замены на z = хь х2 = х, = х| получим трехфакторную линейную модель:

Линейным по параметрам и нелинейным по переменным является уравнение

а для полинома к-го порядка:

Линейным по параметрам и нелинейным по переменным является уравнение

используя соответствующие замены, будет получена множественная линейная модель с к объясняющими переменными: у = а0 + ах ? Z + а2 ? Z2 + «3 • Zi + ••• + ак ? Zk + V.

Таким образом, полином любого порядка сводится к модели линейной множественной регрессии с ее методами оценивания параметров и проверки гипотез теоремы Гауса — Маркова. Большинство исследователей отмечает, что для нелинейной полиномиальной регрессии чаще всего используется парабола второй степени, а в отдельных случаях полином третьего порядка. Ограничения в использовании полиномов более высоких степеней связаны с требованием однородности исследуемой совокупности: чем выше порядок полинома, тем больше изгибов имеет кривая и соответственно менее однородна совокупность по результативному признаку.

Применение МНК для оценки параметров параболы второй степени приводит к следующей системе нормальных уравнений [7, с. 63]:

Линейным по параметрам и нелинейным по переменным является уравнение

Для преобразования гиперболической регрессии (обратной мо-

дели) у = а0+ к линейному виду используется замена z = —•

Видео:Решение системы линейных уравнений с двумя переменными способом подстановки. 6 класс.Скачать

Решение системы линейных уравнений с двумя переменными способом подстановки. 6 класс.

МОДЕЛИ, НЕЛИНЕЙНЫЕ ПО ПАРАМЕТРАМ

Для оценки моделей, нелинейных по параметрам, например, степенных или показательных, непосредственное применение МНК невозможно, так как необходимым условием применимости МНК является их линейность по коэффициентам уравнения регрессии. В данном случае преобразованием, которое приводит уравнение регрессии к линейному виду, является логарифмирование.

Рассмотрим процесс логарифмирования на примере нелинейной по параметрам парной степенной модели вида

Линейным по параметрам и нелинейным по переменным является уравнение

где а0 и а у — параметры модели.

Параметр ах данной степенной модели представляет собой значение эндогенной переменной, полученное при единичном значении регрессора. Чтобы дать экономическую интерпретацию параметру ах данной модели, продифференцируем данное уравнение

Таким образом, параметр ах представляет собой эластичность переменной у по переменной х. Уравнение (4.1) не является линейным. Прологарифмируем обе его части и сделаем соответствующую замену

Линейным по параметрам и нелинейным по переменным является уравнение

Спецификация (4.2) называется двойной логарифмической моделью [1, с. 183], так как и эндогенная переменная, и регрессор используются в логарифмической форме. Второе название модели — модель с постоянной эластичностью — следует из то, что параметр ах, являясь константой, представляет собой эластичность.

Уравнение (4.2) линейно относительно логарифмов переменных, поэтому, вводя обозначение Y = 1п(у), получаем спецификацию линейной модели, к которой при соответствующем включении случайного возмущения применим МНК:

Линейным по параметрам и нелинейным по переменным является уравнение

Модели типа (4.1) используются в микроэкономике для построения производственных функций, функций потребления, функций спроса и т.д.

Спецификации линейных моделей, включающих или только логарифмы значений эндогенной переменной или только логарифмы значений регрессора, называются полулогарифмическими. Так, модель со спецификацией вида:

Линейным по параметрам и нелинейным по переменным является уравнение

относится к полулогарифмическим моделям и называется лог-ли- нейной моделью. Для преобразования данной модели к линейному виду следует произвести замену Y= 1п(у).

Полулогарифмические модели обычно используются для измерения темпа прироста экономических переменных.

Следующие полулогарифмические модели названы линейно-логарифмическими.

Полулогарифмическая модель вида

Линейным по параметрам и нелинейным по переменным является уравнение

называется линейно-логарифмической моделью. Она приводится к линейной путем замены X = 1п(х). Получаем модель вида

Линейным по параметрам и нелинейным по переменным является уравнение

Модель (4.5) используется при исследовании влияния процентного изменения регрессора на абсолютное изменение эндогенной переменной, например, при моделировании влияния процентного изменения денежной массы на изменение объема ВНП.

Видео:Линейное уравнение с двумя переменными. 7 класс.Скачать

Линейное уравнение с двумя переменными. 7 класс.

Разница между линейным уравнением и нелинейным уравнением

Видео:Алгебра 7 Линейное уравнение с одной переменнойСкачать

Алгебра 7 Линейное уравнение с одной переменной

Видео: Разница между линейным уравнением и нелинейным уравнением | Сравните разницу между похожими терминами

  • Видео: Линейное уравнение. Что это?

    Видео:Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ. | МатематикаСкачать

    Cистемы уравнений. Разбор задания 6 и 21 из ОГЭ.  | Математика

    Содержание:

    Линейное уравнение против нелинейного уравнения

    В математике алгебраические уравнения — это уравнения, которые составлены с использованием полиномов. В явном виде уравнения будут иметь вид P (Икс) = 0, где Икс вектор из n неизвестных переменных, а P — многочлен. Например, P (x, y) = 4x 5 + ху 3 + y + 10 = 0 — алгебраическое уравнение с двумя переменными, записанное явно. Также (x + y) 3 = 3x 2 у — 3zy 4 является алгебраическим уравнением, но в неявной форме и примет вид Q (x, y, z) = x 3 + y 3 + 3xy 2 + 3zy 4 = 0, когда-то написано явно.

    Важной характеристикой алгебраического уравнения является его степень. Он определяется как наивысшая степень членов уравнения. Если терм состоит из двух или более переменных, сумма показателей каждой переменной будет считаться мощностью члена. Заметим, что согласно этому определению P (x, y) = 0 имеет степень 5, а Q (x, y, z) = 0 — степень 5.

    Линейные уравнения и нелинейные уравнения представляют собой два раздела, определенные на системе алгебраических уравнений. Степень уравнения — это фактор, который отличает их друг от друга.

    Что такое линейное уравнение?

    Линейное уравнение — это алгебраическое уравнение степени 1. Например, 4x + 5 = 0 — это линейное уравнение одной переменной. x + y + 5z = 0 и 4x = 3w + 5y + 7z — линейные уравнения с 3 и 4 переменными соответственно. В общем случае линейное уравнение от n переменных будет иметь вид m1Икс1 + м2Икс2 +… + Мп-1Иксп-1 + мпИксп = б. Здесь xяS — неизвестные переменные, mяS и b — действительные числа, где каждое из mя не равно нулю.

    Такое уравнение представляет собой гиперплоскость в n-мерном евклидовом пространстве. В частности, линейное уравнение с двумя переменными представляет собой прямую линию в декартовой плоскости, а линейное уравнение с тремя переменными представляет собой плоскость в трехмерном евклидовом пространстве.

    Что такое нелинейное уравнение?

    Квадратное уравнение — это алгебраическое уравнение, которое не является линейным. Другими словами, нелинейное уравнение — это алгебраическое уравнение степени 2 или выше. Икс 2 + 3x + 2 = 0 — нелинейное уравнение с одной переменной. Икс 2 + y 3 + 3xy = 4 и 8yzx 2 + y 2 + 2z 2 + x + y + z = 4 — примеры нелинейных уравнений от 3 и 4 переменных соответственно.

    Нелинейное уравнение второй степени называется квадратным уравнением. Если степень равна 3, то это называется кубическим уравнением. Уравнения степени 4 и степени 5 называются уравнениями четвертой и пятой степени соответственно. Было доказано, что не существует аналитического метода для решения любого нелинейного уравнения степени 5, и это верно и для любой более высокой степени. Решаемые нелинейные уравнения представляют собой гиперповерхности, которые не являются гиперплоскостями.

    В чем разница между линейным уравнением и нелинейным уравнением?

    • Линейное уравнение — это алгебраическое уравнение степени 1, а нелинейное уравнение — это алгебраическое уравнение степени 2 или выше.

    • Несмотря на то, что любое линейное уравнение разрешимо аналитически, в нелинейных уравнениях это не так.

    • В n-мерном евклидовом пространстве пространство решений линейного уравнения с n переменными является гиперплоскостью, а пространство решений нелинейного уравнения с n переменными — гиперповерхностью, которая не является гиперплоскостью. (Квадрики, кубические поверхности и др.)

    Видео:Алгебра 11 класс (Урок№43 - Нелинейные уравнения и неравенства с двумя переменными.)Скачать

    Алгебра 11 класс (Урок№43 - Нелинейные уравнения и неравенства с двумя переменными.)

    1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к. — презентация

    Презентация была опубликована 8 лет назад пользователемГригорий Черников

    Похожие презентации

    Видео:МЕТОД ПОДСТАНОВКИ 😉 СИСТЕМЫ УРАВНЕНИЙ ЧАСТЬ I#математика #егэ #огэ #shorts #профильныйегэСкачать

    МЕТОД ПОДСТАНОВКИ 😉 СИСТЕМЫ УРАВНЕНИЙ ЧАСТЬ I#математика #егэ #огэ #shorts #профильныйегэ

    Презентация на тему: » 1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к.» — Транскрипт:

    1 1 Линейные модели по переменным и параметрам: НЕЛИНЕЙНЫЕ МОДЕЛИ Линейные модели и по переменным и по параметрам. Способы сведения нелинейных моделей к линейным.

    2 2 Модели линейные по переменным и параметрам: Модели линейные по параметрам и нелинейные по переменным: НЕЛИНЕЙНЫЕ МОДЕЛИ Модели нелинейные по переменным. Замена переменных приводит к модели линейной и по параметрам и по переменным.

    3 3 Модели линейные по переменным и параметрам : Модели линейные по параметрам и нелинейные по переменным : Модели нелинейные по параметрам: ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Некоторые модели нелинейные по параметрам могут быть линеаризованы.

    4 4 бананы доход (фунт) ($10,000) хозяйство Y X ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Пример: зависимость потребления бананов от дохода для 10 хозяйств.

    5 5 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Точечная диаграмма. X Y

    F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A» title=»6. reg Y X Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 17.44 Model | 58.8774834 1 58.8774834 Prob > F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A» > 6 6. reg Y X Source | SS df MS Number of obs = F( 1, 8) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] X | _cons | ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Построение регрессионной модели. Коэффициент при X значим, коэффициент детерминации R 2 высок. Хорошая ли это модель? Y=4,6+0,84*X F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A»> F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— Adj R-squared = 0.6463 Total | 85.8812475 9 9.54236083 Root MSE = 1.8372 —————————————————————————— Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— X |.8447878.2022741 4.176 0.003.378343 1.311233 _cons | 4.618667 1.255078 3.680 0.006 1.724453 7.512881 —————————————————————————— ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Построение регрессионной модели. Коэффициент при X значим, коэффициент детерминации R 2 высок. Хорошая ли это модель? Y=4,6+0,84*X»> F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A» title=»6. reg Y X Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 17.44 Model | 58.8774834 1 58.8774834 Prob > F = 0.0031 Residual | 27.003764 8 3.3754705 R-squared = 0.6856 ———+—————————— A»>

    7 7 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Поведение отклонений от линии регрессии не похожа на случайную величину, что свидетельствует о некорректности модели. X Y

    8 8 Измененная модель: ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Обратно пропорциональная модель. Y увеличивается вместе с X если 2

    9 9 бананы доход (фунтов) ($10,000) хозяйства Y X Z ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ.

    10 10 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Зависимость Y от Z. Y Z

    F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————» title=»11. g Z=1/X. reg Y Z Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 286.10 Model | 83.5451508 1 83.5451508 Prob > F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————» > 11 11. g Z=1/X. reg Y Z Source | SS df MS Number of obs = F( 1, 8) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] Z | _cons | ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Вычисление регрессионных коэффициентов регрессионной модели. Высокая объяснительная способность модели. F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————«> F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+—————————— Adj R-squared = 0.9694 Total | 85.8812475 9 9.54236083 Root MSE =.54038 —————————————————————————— Y | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— Z | -10.98865.6496573 -16.915 0.000 -12.48677 -9.490543 _cons | 12.48354.2557512 48.811 0.000 11.89378 13.07331 —————————————————————————— ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ Вычисление регрессионных коэффициентов регрессионной модели. Высокая объяснительная способность модели.»> F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————» title=»11. g Z=1/X. reg Y Z Source | SS df MS Number of obs = 10 ———+—————————— F( 1, 8) = 286.10 Model | 83.5451508 1 83.5451508 Prob > F = 0.0000 Residual | 2.33609666 8.292012083 R-squared = 0.9728 ———+———————«>

    12 12 ЛИНЕАРИЗАЦИЯ МОДЕЛЕЙ График зависимости Y от Z. Z Y

    13 13 НЕЛИНЕЙНЫЕ МОДЕЛИ График зависимости Y от Z показывает лучшую зависимость и большую случайность отклонений. X Y

    14 14 ЭластичностьY по X есть пропорциональное изменение Y относительно пропорционального изменения X: ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Y Эластичность в любой точке – это отношение тангенса угла наклона касательной к тангенсу угла наклона радиус вектора. Значение эластичности для данного рисунка

    1. A O Y X» title=»15 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичность > 1. A O Y X» > 15 15 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичность > 1. A O Y X 1. A O Y X»> 1. A O Y X»> 1. A O Y X» title=»15 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичность > 1. A O Y X»>

    16 16 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Эластичность для прямой непостоянна. xO A Y X

    17 17 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Функция с одинаковой эластичностью для всех X..

    18 18 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Пример функции с эластичностью Y X

    19 19 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Y X

    20 20 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ 2 = 1, прямая линия. Линейная модель может быть частным случаем модели с постоянной эластичностью Y X

    21 21 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ. Y X

    22 22 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Линеаризация модели.

    23 23 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Точечная диаграмма зависимости FDHO, трат на еду дома, от EXP, общего годового дохода. (в $, 1995г. для 869 хозяйств США). FDHO EXP

    F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————» title=»24. reg FDHO EXP Source | SS df MS Number of obs = 869 ———+—————————— F( 1, 867) = 381.47 Model | 915843574 1 915843574 Prob > F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————» > 24 24. reg FDHO EXP Source | SS df MS Number of obs = F( 1, 867) = Model | Prob > F = Residual | e R-squared = Adj R-squared = Total | e Root MSE = FDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] EXP | _cons | ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Построение регрессии FDHO от EXP. На еду тратится около 5% годового дохода. Константа смысла не имеет. FDHO=1916,1+0,05*EXP F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————«> F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+—————————— Adj R-squared = 0.3047 Total | 2.9974e+09 868 3453184.55 Root MSE = 1549.5 —————————————————————————— FDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— EXP |.0528427.0027055 19.531 0.000.0475325.0581529 _cons | 1916.143 96.54591 19.847 0.000 1726.652 2105.634 —————————————————————————— ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Построение регрессии FDHO от EXP. На еду тратится около 5% годового дохода. Константа смысла не имеет. FDHO=1916,1+0,05*EXP»> F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————» title=»24. reg FDHO EXP Source | SS df MS Number of obs = 869 ———+—————————— F( 1, 867) = 381.47 Model | 915843574 1 915843574 Prob > F = 0.0000 Residual | 2.0815e+09 867 2400831.16 R-squared = 0.3055 ———+———————«>

    25 25 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Регрессионная линия. EXP FDHO

    26 26 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Подбор логарифмической модели. Точечная диаграмма логарифма FDHO в зависимости от логарифма EXP. LGFDHO LGEXP

    F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»27. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq» > 27 27. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = F( 1, 866) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] LGEXP | _cons | ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Регресссионная логарифмическая модель LGFDHO от LGEXP. F = 0.0000 Residual | 184.579612 866.213140429 R-sq»> F = 0.0000 Residual | 184.579612 866.213140429 R-squared = 0.3138 ———+—————————— Adj R-squared = 0.3130 Total | 268.995781 867.310260416 Root MSE =.46167 —————————————————————————— LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— LGEXP |.4800417.0241212 19.901 0.000.4326988.5273846 _cons | 3.166271.244297 12.961 0.000 2.686787 3.645754 —————————————————————————— ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Регресссионная логарифмическая модель LGFDHO от LGEXP.»> F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»27. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq»>

    F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»28. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq» > 28 28. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = F( 1, 866) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] LGEXP | _cons | ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Коэффициент эластичности 0.48.Является ли он правдоподобным? Поскольку еда – предмет первой необходимости, то коэффициент эластичности функции спроса должен быть меньше 1. Расходы на еду растут медленнее, чем рост дохода. ( e 3.17 = 23.8) F = 0.0000 Residual | 184.579612 866.213140429 R-sq»> F = 0.0000 Residual | 184.579612 866.213140429 R-squared = 0.3138 ———+—————————— Adj R-squared = 0.3130 Total | 268.995781 867.310260416 Root MSE =.46167 —————————————————————————— LGFDHO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— LGEXP |.4800417.0241212 19.901 0.000.4326988.5273846 _cons | 3.166271.244297 12.961 0.000 2.686787 3.645754 —————————————————————————— ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Коэффициент эластичности 0.48.Является ли он правдоподобным? Поскольку еда – предмет первой необходимости, то коэффициент эластичности функции спроса должен быть меньше 1. Расходы на еду растут медленнее, чем рост дохода. ( e 3.17 = 23.8)»> F = 0.0000 Residual | 184.579612 866.213140429 R-sq» title=»28. g LGFDHO = ln(FDHO). g LGEXP = ln(EXP). reg LGFDHO LGEXP Source | SS df MS Number of obs = 868 ———+—————————— F( 1, 866) = 396.06 Model | 84.4161692 1 84.4161692 Prob > F = 0.0000 Residual | 184.579612 866.213140429 R-sq»>

    29 29 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Точечная диаграмма и логарифмическая модель. LGFDHO LGEXP

    30 30 ЭЛАСТИЧНОСТЬ И ЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Сравнение линейной и логарифмической модели. В середине близки, а по краям сильное расхождение. В нуле значение равно нулю, что соответствует здравому смыслу. Для больших доходов доля, расходуемая на продовольствие должна падать. EXP FDHO

    31 31 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Относительное изменение Y в расчете на единицу абсолютного изменения X равны 2.

    32 32 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Оценка зависимости ПЛАТЫ (Earnings) от продолжительности обучения (S).

    33 33 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Интерпретация 2.. Если 2 мало (

    34 34 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ 1 — это значение Y при X =0

    35 35 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Линеаризация модели.

    F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»36. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» > 36 36. reg LGEARN S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | Регрессионная полулогарифмическая модель. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ LNEARN = 1,36+0,079*S EARN = e 1,36 e 0,079*S F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+—————————— Adj R-squared = 0.1395 Total | 153.801893 569.270302096 Root MSE =.48229 —————————————————————————— LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0792256.0082061 9.655 0.000.0631077.0953435 _cons | 1.358919.1127785 12.049 0.000 1.137406 1.580433 —————————————————————————— Регрессионная полулогарифмическая модель. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ LNEARN = 1,36+0,079*S EARN = e 1,36 e 0,079*S»> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»36. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«>

    37 37 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Приблизительная оценка. β 2 = 0.079, то есть каждый год обучения приблизительно ведет к увеличению зарплаты на 7.9%. Более точная оценка дает значение e 0,079 = 1,082, то есть увеличение на 8.2%.

    F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»38. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» > 38 38. reg LGEARN S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | log 1 =1,36. Отсюда 1 = e 1.36 = Буквально, человек без образования получает 3,9$ в час. Но такая интерпретация не вполне правомочна, поскольку это значение находится за пределами интервала значений выборки. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+—————————— Adj R-squared = 0.1395 Total | 153.801893 569.270302096 Root MSE =.48229 —————————————————————————— LGEARN | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0792256.0082061 9.655 0.000.0631077.0953435 _cons | 1.358919.1127785 12.049 0.000 1.137406 1.580433 —————————————————————————— log 1 =1,36. Отсюда 1 = e 1.36 = 3.90. Буквально, человек без образования получает 3,9$ в час. Но такая интерпретация не вполне правомочна, поскольку это значение находится за пределами интервала значений выборки. ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ»> F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————» title=»38. reg LGEARN S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.681253 1 21.681253 Prob > F = 0.0000 Residual | 132.12064 568.23260676 R-squared = 0.1410 ———+————————«>

    39 39 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Точечная диаграмма значений и полулогарифмическая модель.

    40 40 ПОЛУЛОГАРИФМИЧЕСКИЕ МОДЕЛИ Сравнение полулогарифмической модели с линейной моделью. Полулогарифмическая модель предпочтительнее, так как более точно предсказывает плату для высоких и низких уровней обучения. Нет отрицательных значений константы.

    41 41 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ При линеаризации не учитывался случайный член. В ряде нелинейных моделей случайный член аддитивен. То же возмущение будет и для преобразованного уравнения.

    42 42 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ С логарифмическими моделями дело обстоит сложнее. В них после линеаризации добавляется мультипликативный член v = e u. Положительные значения u приводят к увеличению значения Y, отрицательные – к уменьшению.

    43 43 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ v f(v)f(v) Кроме условий Гаусса-Маркова, необходимо, чтобы величина u была нормально распределена. Иначе невозможно использовать t и F тесты. Нормальное распределение показывает, что случайное возмущение – это сумма многих малых неучтенных возмущений.

    44 44 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ v f(v)f(v) Нормальное возмущение u будет в том случае, если v имеет логнормальное распределение, плотность которого приведена на графике. Его среднее равно v =1, тогда u = 0.

    45 45 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Такое же мультипликативное распределение характерно и для полулогарифмических моделей. v f(v)f(v)

    46 46 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Точечная диаграмма для регрессионной модели зависимости выплат от обучения. Можно видеть несколько точек существенно отклоняющихся от регрессионной прямой.

    47 47 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Такая же диаграмма для полулогарифмической модели демонстрирует отсутствие резкого отклонения от модели.

    48 48 ВОЗМУЩЕНИЕ В НЕЛИНЕЙНЫХ МОДЕЛЯХ Сравнение нормированных гистограмм распределений случайных остатков для линейной и полулогарифмической моделей. Нормировка – приведение стандартных отклонений к 1 для сравнения. Для обеих моделей распределение близко к нормальному, но для полулогарифмической модели оно более симметрично.

    49 49 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Численные методы поиска регрессионных коэффициентов для нелинеаризуемых задач на примере модели потребления бананов. Метод нелинейной оптимизации. X Y

    50 50 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Предположим нам известно, что 1 = 12. Поиск 2 на основе критерия минимизации суммы квадратов остатков. Предположим, что 2 = 6. Y X

    51 51 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Строим модели и ищем сумму квадратов остатков. Y X

    52 52 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Строим модели и ищем сумму квадратов остатков. Y X

    53 53 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ RSS=29,17. b 2 = -6 b 2 = -7 X Y Y e e Total29.17 ^

    54 54 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Повторим процедуру, модифицировав значение коэффициента на -7. Y X

    55 55 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ На графике видно, что это приближение лучше. Y X

    56 56 b 2 = -6 b 2 = -7 X Y Y e e 2 Y e e Total НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Вычисленное значение RSS свидетельствует о том же. ^^

    57 57 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Повторяя процедуру далее можно увидеть, что оптимальное решение лежит между -10 и -11. b 2 RSS

    58 58 НЕЛИНЕЙНАЯ РЕГРЕССИЯ: ЧИСЛЕННЫЕ МЕТОДЫ Уменьшая интервал и шаг можно получить новое приближение на интервале и С точностью до 0,01 получаем приближение 10,08. Повторяя эту же процедуру по двум параметрам можно получить решение с заданной точностью. b 2 RSS

    59 59 ТЕСТЫ КОКСА-БОКСА Проблема сравнения качества альтернативных регрессионных моделей. Когда альтернативные регрессионные модели имеют одинаковые переменные, то лучшая выбирается по критерию максимума R 2. Что делать, когда переменные различны, как например в линейной и логарифмической моделях.

    60 60 ТЕСТЫ КОКСА-БОКСА Среднее арифметическое логарифма Y сводится к среднему геометрическому Y. Среднее в одной модели связано со средним в другой. Усреднение позволяет сравнивать модели между собой по остаткам.

    61 61 ТЕСТЫ КОКСА-БОКСА Нормировка значений зависимых переменных в полулогарифмической модели по методу Зарембки.

    χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде» title=»62 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 — распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде» > 62 62 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 — распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS будет лучше. χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде»> χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS будет лучше.»> χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде» title=»62 ТЕСТЫ КОКСА-БОКСА Сравнение нормированных моделей Y* and log e Y по среднеквадратичным отклонениям (RSS). Логарифм отношения остатков имеет χ 2 — распределение. Если χ>χ 2 – критическое при заданном пороге вероятности, то модель с меньшим RSS буде»>

    63 63. sum LGEARN Variable | Obs Mean Std. Dev. Min Max LGEARN | EARNSTAR=EARNINGS/exp( ) LGEARNST=ln(EARNSTAR) ТЕСТЫ КОКСА-БОКСА Найдем среднее для LGEARN и обозначим LGEARNST=ln( EARNSTAR).

    F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-» title=»64. reg EARNSTAR S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 65.64 Model | 30.8184248 1 30.8184248 Prob > F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-» > 64 64. reg EARNSTAR S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = EARNSTAR | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | ТЕСТЫ КОКСА-БОКСА Найдем регрессионную зависимость нормированного значения EARNSTAR от S и определим RSS. F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-«> F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+—————————— Adj R-squared = 0.1020 Total | 297.516494 569.522876089 Root MSE =.68523 —————————————————————————— EARNSTAR | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0944558.0116589 8.102 0.000.0715559.1173557 _cons | -.1224433.1602326 -0.764 0.445 -.437164.1922774 —————————————————————————— ТЕСТЫ КОКСА-БОКСА Найдем регрессионную зависимость нормированного значения EARNSTAR от S и определим RSS.»> F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-» title=»64. reg EARNSTAR S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 65.64 Model | 30.8184248 1 30.8184248 Prob > F = 0.0000 Residual | 266.69807 568.469538855 R-squared = 0.1036 ———+——————-«>

    F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————» title=»65. reg LGEARNST S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.6812545 1 21.6812545 Prob > F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————» > 65 65. reg LGEARNST S Source | SS df MS Number of obs = F( 1, 568) = Model | Prob > F = Residual | R-squared = Adj R-squared = Total | Root MSE = LGEARNST | Coef. Std. Err. t P>|t| [95% Conf. Interval] S | _cons | ТЕСТЫ КОКСА-БОКСА То же сделаем для нормированной переменной LGEARNST. F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————«> F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+—————————— Adj R-squared = 0.1395 Total | 153.801897 569.270302103 Root MSE =.48229 —————————————————————————— LGEARNST | Coef. Std. Err. t P>|t| [95% Conf. Interval] ———+——————————————————————— S |.0792256.0082061 9.655 0.000.0631077.0953435 _cons | -1.071214.1127785 -9.498 0.000 -1.292727 -.8496999 —————————————————————————— ТЕСТЫ КОКСА-БОКСА То же сделаем для нормированной переменной LGEARNST.»> F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————» title=»65. reg LGEARNST S Source | SS df MS Number of obs = 570 ———+—————————— F( 1, 568) = 93.21 Model | 21.6812545 1 21.6812545 Prob > F = 0.0000 Residual | 132.120642 568.232606764 R-squared = 0.1410 ———+——————«>

    66 66 ТЕСТЫ КОКСА-БОКСА Значение статистики Оно существенно выше 2 с 1 степенью свободы на 0.1% уровне, исходя из чего можно утверждать о значимости предпочтения полулогарифмической модели линейной.

    🎥 Видео

    Линейное уравнение с одной переменной. 6 класс.Скачать

    Линейное уравнение с одной переменной. 6 класс.

    Решение систем уравнений методом подстановкиСкачать

    Решение систем уравнений методом подстановки

    Парная регрессия: линейная зависимостьСкачать

    Парная регрессия: линейная зависимость

    Алгебра 7 Линейное уравнение с двумя переменными и его графикСкачать

    Алгебра 7 Линейное уравнение с двумя переменными и его график

    Как решить уравнение #россия #сша #америка #уравненияСкачать

    Как решить уравнение #россия #сша #америка #уравнения

    9 класс, 8 урок, Уравнения с двумя переменнымиСкачать

    9 класс, 8 урок, Уравнения с двумя переменными

    Алгебра 11 класс (Урок№42 - Линейные уравнения и неравенства с двумя переменными.)Скачать

    Алгебра 11 класс (Урок№42 - Линейные уравнения и неравенства с двумя переменными.)

    Эконометрика Линейная регрессия и корреляцияСкачать

    Эконометрика  Линейная регрессия и корреляция

    Параметры с нуля до уровня ЕГЭ. Линейные уравнения. Математик МГУСкачать

    Параметры с нуля до уровня ЕГЭ. Линейные уравнения. Математик МГУ

    Графический способ решения систем уравнений. Алгебра, 9 классСкачать

    Графический способ решения систем уравнений. Алгебра, 9 класс

    ГРАФИК ЛИНЕЙНОГО УРАВНЕНИЯ С ДВУМЯ ПЕРЕМЕННЫМИ 7 КЛАСС видеоурокСкачать

    ГРАФИК ЛИНЕЙНОГО УРАВНЕНИЯ С ДВУМЯ ПЕРЕМЕННЫМИ 7 КЛАСС видеоурок

    Эконометрика. Линейная парная регрессияСкачать

    Эконометрика. Линейная парная регрессия
  • Поделиться или сохранить к себе: