Простая регрессионная модель. Модель простой линейной регрессии

До сих нор в оценке статистической связи мы исходили из того, что обе рассматриваемые переменные являются равноправными. В практическом экспериментальном исследовании бывает важно, однако, проследить не только связь двух переменных друг с другом, но также и то, каким образом одна из переменных влияет на другую.

Предположим, нас интересует, возможно ли по результатам контрольной работы, проведенной в середине семестра, предсказать оценку студента на экзамене. Для этого соберем данные, отражающие оценки студентов, полученные на контрольной работе и на экзамене. Возможные данные такого рода представлены в табл. 7.3. Логично предположить, что студент, который лучше подготовился к контрольной работе и получил более высокую оценку, при прочих равных условиях имеет больше шансов получить и более высокую оценку на экзамене. Действительно, коэффициент корреляции между X (оценкой по контрольной работе) и Y (оценкой на экзамене) для данного случая довольно велик (0,55). Однако он вовсе не указывает на то, что оценка на экзамене обусловлена оценкой на контрольной работе. К тому же он нисколько не говорит нам о том, насколько должна измениться оценка на экзамене при соответствующем изменении результата контрольной работы. Для оценки того, каким образом должен изменяться Y при изменении X, скажем, на единицу, необходимо воспользоваться методом простой линейной регрессии.

Таблица 7.3

Оценки группы студентов по общей психологии на контрольной работе (коллоквиуме) и экзамене

на контрольной работе (X )

на экзамене (Y )

Смысл этого метода состоит в следующем.

Если бы коэффициент корреляции между двумя рядами оценок равнялся единице, тогда бы оценка на экзамене просто повторяла оценку на контрольной работе. Предположим, однако, что единицы измерения, которыми пользуется преподаватель для итогового и промежуточного контроля знаний, различны. Например, оценивать уровень текущих знаний в середине семестра можно по числу вопросов, на которые студент дал правильный ответ. В этом случае простое соответствие оценок нс будет выполняться. Но в любом случае будет выполняться соответствие для 2-оценок. Иными словами, если коэффициент корреляции между двумя рядами данных оказывается равным единице, должно выполняться следующее соотношение:

Если коэффициент корреляции оказывается отличным от единицы, тогда ожидаемое значение z Y, которое можно обозначить как , и значение z X должны быть связаны следующим соотношением, полученным с помощью методов дифференциального исчисления:

Выполнив замену значений г исходными значениями X и Υ, получаем следующее соотношение:

Теперь легко найти ожидаемое значение Υ:

(7.10)

Тогда уравнение (7.10) может быть переписано следующим образом:

Коэфициенты А и В в уравнении (7.11) представляет собой коэффициенты линейной регрессии . Коэффициент В показывает ожидаемое изменение зависимой переменной Y при изменении независимой переменной X на одну единицу. В методе простой линейной регрессии он называется наклоном. Применительно к нашим данным (см. табл. 7.3) наклон оказался равным 0,57. Это значит, что студенты, получившие на контрольной работе оценку на один бал выше, имели на экзамене в среднем на 0,57 балла больше остальных. Коэффициент А в уравнении (7.11) называется константой. Он показывает, какая ожидаемая величина зависимой переменной соответствует нулевому значению независимой переменной. Применительно к нашим данным этот параметр не несет никакой смысловой информации. И это довольно распространенное явление в психологических и педагогических исследованиях.

Следует отметить, что в регрессионном анализе независимые X и зависимые Y переменные имеют специальные названия. Так, независимую переменную принято обозначать термином предиктор, а зависимую – критерий.

Пусть определен характер экспериментальных данных и выделен определенный набор объясняющих переменных.

Для того, чтобы найти объясненную часть, т. е. величину М Х (У), требуется знание условных распределений случайной величины Y. На практике это почти никогда не имеет места, поэтому точное нахождение объясненной части невозможно.

В таких случаях применяется стандартная процедура сглаживания экспериментальных данных, подробно описанная, например, в . Эта процедура состоит из двух этапов:

  • 1) определяется параметрическое семейство, к которому принадлежит искомая функция М х (Y) (рассматриваемая как функция от значений объясняющих переменных X). Это может быть множество линейных функций, показательных функций и т.д.;
  • 2) находятся оценки параметров этой функции с помошыо одного из методов математической статистики.

Формально никаких способов выбора параметрического семейства не существует. Однако в подавляющем большинстве случаев эконометрические модели выбираются линейными.

Кроме вполне очевидного преимущества линейной модели - ее относительной простоты , - для такого выбора имеются, по крайней мере, две существенные причины.

Первая причина: если случайная величина (X, Y) имеет совместное нормальное распределение, то, как известно, уравнения регрессии линейные (см. § 2.5). Предположение о нормальном распределении является вполне естественным и в ряде случаев может быть обосновано с помощью предельных теорем теории вероятностей (см. § 2.6).

В других случаях сами величины Y или X могут не иметь нормального распределения, но некоторые функции от них распределены нормально. Например, известно, что логарифм доходов населения - нормально распределенная случайная величина. Вполне естественно считать нормально распределенной случайной величиной пробег автомобиля. Часто гипотеза о нормальном распределении принимается во многих случаях, когда нет явного ей противоречия, и, как показывает практика, подобная предпосылка оказывается вполне разумной.

Вторая причина, по которой линейная регрессионная модель оказывается предпочтительнее других, - это меньший риск значительной ошибки прогноза.

Рис. 1.1 иллюстрирует два выбора функции регрессии - линейной и квадратичной. Как видно, имеющееся множество экспериментальных данных (точек) парабола сглаживает, пожалуй, даже лучше, чем прямая. Однако парабола быстро удаляется от корреляционного поля и для добавленного наблюдения (обозначенного крестиком) теоретическое значение может очень значительно отличаться от эмпирического.

Можно придать точный математический смысл этому утверждению: ожидаемое значение ошибки прогноза , т.е. математическое ожидание квадрата отклонения наблюдаемых значений от сглаженных (или теоретических) М (К на б Л - ^теор) 2 оказывается меньше в том случае, если уравнение регрессии выбрано линейным.

В настоящем учебнике мы в основном будем рассматривать линейные регрессионные модели, и, по мнению авторов, это вполне соответствует той роли, которую играют линейные модели в эконометрике.

Наиболее хорошо изучены линейные регрессионные модели, удовлетворяющие условиям (1.6), (1.7) и свойству постоянства дисперсии ошибок регрессии, - они называются /иассическими моделями.

Заметим, что условиям классической регрессионной модели удовлетворяют и гомоскедастичная модель пространственной выборки, и модель временного ряда, наблюдения которого не коррелируют, а дисперсии постоянны. С математической точки зрения они действительно неразличимы (хотя могут значительно различаться экономические интерпретации полученных математических результатов).

Подробному рассмотрению классической регрессионной модели посвящены гл. 3, 4 настоящего учебника. Практически весь последующий материал посвящен моделям, которые так или иначе могут быть сведены к классической. Часто раздел эконометрики, изучающий классические регрессионные модели, называется «Эконометрикой-1», в то время как курс «Эконометрика-2» охватывает более сложные вопросы, связанные с временными рядами, а также более сложными, существенно нелинейными моделями.

регрессия моделирование статистика mathcad

Главная задача, которая решается с помощью регрессионного анализа, - создание математических моделей некоторых объектов или явлений на основе экспериментов или наблюдений. Эти модели представляют собой определённые математические соотношения между показателями работы объекта или характеристиками наблюдаемого явления и обусловливающими их величинами. Будем называть зависимыми переменными, выходными характеристиками или откликами объекта, а - входными переменными, независимыми характеристиками или факторами. Для одного и того же объекта можно создать множество моделей:

причём каждая описывает лишь один из показателей, интересующих исследователя. В зависимости от целей исследования один и тот же объект с одинаковыми показателями может описываться различными моделями.

Выбор подходящей модели - это в значительной степени искусство, и при определении её вида часто решающую роль играют опыт и знания исследователя. Модель всегда отражает данное явление с некоторым приближением.

Есть и ещё одна причина, по которой модель не отражает протекающее явление абсолютно точно. Всегда есть величины, которые влияют на результаты, но не измеряются во время эксперимента. Часть из них имеет систематический характер и в силу этого может с течением времени вызвать изменения коэффициентов модели. Другая же часть меняется случайным образом, подчиняясь некоторому закону распределения. Такие величины ещё называют случайными возмущениями. В силу их действия повторные опыты при одних и тех же значениях факторов будут давать различные значения зависимой переменной. Модель не может точно учесть влияние случайных возмущений в каждом отдельном измерении, она показывает лишь некоторые усреднённые характеристики.

Следовательно, нет оснований говорить об "истинной" модели в полном смысле слова. Тем не менее, модели с успехом используются на практике. Обычно под "истинным" значением понимают условное математическое ожидание зависимой переменной при заданных значениях факторов:

где Е - знак математического ожидания.

Это равенство называется уравнением регрессии и показывает изменение среднего значения отклика объекта при изменениях факторов. Фактически измеряемая выходная характеристика есть

где - случайное возмущение. Чаще всего принимают, что действие на объект множества случайных возмущений эквивалентно действию одного единственного возмущения с нормальным распределением, нулевым математическим ожиданием и дисперсией. Это предположение выполняется достаточно хорошо для многих практических задач, в которых все случайные возмущения оказывают воздействия, соизмеримые одно с другим. Основанием этому служит центральная предельная теорема теории вероятностей.

Существует большое число различных регрессионных моделей, определяемых конкретным видом функции, где всегда присутствуют некоторые коэффициенты, которые надо определять по экспериментальным данным. В зависимости от того, как эти коэффициенты входят в уравнение регрессии, модели делятся на линейные и нелинейные по параметрам.

Например, модель

  • - нелинейна, а
  • - линейна.

Под линейной обычно понимают модель, линейную по параметрам. Например, модель

Линейна

по отношению к коэффициентам, не нелинейна по отношению к факторам.

Нередко регрессионные модели представляют полиномами по степеням факторов. Подобное представление опирается на тот факт, что отклики - часто непрерывные функции от факторов и их можно разложить в ряд Тейлора.

Ясно, что все функции, разложимые в ряд Тейлора, можно аппроксимировать полиномами. Это важно отметить, так как полиномами трудно аппроксимировать функции с разрывами, т.е. не имеющие производных. Полиномы не годятся для описания явлений со скачкообразными изменениями выходной характеристики при изменении факторов, функций с гистерезисом, релейных функций и т.п.

Когда исследуется периодический процесс, его наилучшее описание можно получить разложением в ряд Фурье:

где - частота, меняющаяся в пределах. Такие модели используются в электротехнике, геофизике, океанологии, биологии, медицине и других прикладных областях.

Для описания временных характеристик используется ещё так называемая модель распределённого лага:

Это выражение предполагает, что измерения делаются в дискретные моменты времени, отстоящие друг от друга на интервал. Через обозначена выходная характеристика в -й момент времени, т.е.

а - та же самая величина, измеренная на тактов раньше; - значение фактора, измеренное с запаздыванием на тактов по отношению к текущему i -му моменту.

В уравнении (1.1) записана одна выходная характеристика, но аналогичные модели можно строить и когда в исследовании участвует несколько откликов. Если для случайных процессов вход явно не определён, то пользуются так называемой моделью авторегрессии:

Моделью авторегрессии, например, описывается изменение числа пассажиров на железнодорожной магистрали через определённое время. Отклик может рассматриваться и как функция некоторого фактора (нескольких факторов), заданного через определённые промежутки времени:

Представление всех моделей в единой форме удобно при организации вычислительных процедур регрессионного анализа, однако, аналогия между моделями разных видов отнюдь не полная. Например, модели (1.2) и (1.3) описывают зависимость выходной характеристики в i -й момент от её значений в предыдущие моменты, а это предполагает зависимость между наблюдениями во времени, которая влечёт за собой значительные изменения как в вычислительной процедуре, так и в статистическом анализе результатов.

Многие нелинейные по параметрам модели линеаризуемы с помощью подходящего преобразования переменных. В биологии, например, используется так называемая логистическая функция, показывающая зависимость доли погибших вредных насекомых

Число погибших насекомых, - общее число насекомых при заданной дозе инсектицида. Логистическая зависимость имеет вид

и говорит о том, что очень маленькие и очень большие дозы яда не приводят к существенному изменению доли погибших насекомых (при очень малых дозах гибнут самые не жизнестойкие, а при очень больших - все).

Если к логистической зависимости применить преобразование

то, как легко проверить, она примет вид

а эта зависимость линейна относительно искомых параметров.

В моделях, которые рассматривались до сих пор, предполагалось, что все независимые переменные могут меняться в заданных интервалах непрерывно. Однако в некоторых задачах часть факторов имеет качественный характер и может принимать только определённые дискретные значения. В этом случае в модель вводят так называемые индикаторные переменные, показывающие, имел ли некоторый фактор в определённом наблюдении заданное значение или нет. Фактор с качественными уровнями можно представить индикаторными переменными, принимающими только значения 0 и 1.

Примером послужит задача построения модели количества газовых пор в сварном шве при аргонодуговой сварке никеля в зависимости от состава покрытия электрода (криолит - , титан - , алюминий -, фтористый натрий -), а также от условий сварки - времени горения - и длины дуги - Длина дуги - качественный фактор, который может принимать только два значения: длинная дуга () и короткая дуга. Линейная по параметрам и факторам модель имеет вид:

причём переменная равна 1 в экспериментах с длинной дугой и 0 - с короткой.

Другой пример индикаторной переменной даёт исследование выхода химической реакции в зависимости от температуры (), давления () и pH раствора (). Опыты проводятся с сырьём, поставляемым фирмами А, В и С. Фирму-поставщик можно рассматривать как фактор с качественными уровнями, принимающими значения. Его влияние можно представить двумя индикаторными переменными и. Вот линейная по параметрам и факторам модель для этого случая:

Если используется сырьё фирмы А, то в этом уравнении полагаем =1, =0, для сырья фирмы В - =0, =1, а для фирмы С - =0 и =0.

В данном случае нельзя было бы выбрать для фирмы С отдельную индикаторную переменную (), поскольку такой выбор всегда приводил бы к равенству

а это - линейная зависимость между переменными, наличие которой приводит к серьёзным вычислительным трудностям.

Индикаторные переменные могут участвовать и в более сложных моделях. Если, например, предполагается, что действие факторов (температура, давление, pH раствора на выход у) зависит и от взаимного влияния между факторами, модель может принять вид:

Могут использоваться и некоторые другие модели. Одни удобнее при описании данных наблюдения определённых явлений, другие дают известные преимущества при обработке данных.

Рассмотрим парную линейную регрессионную модель взаимосвязи двух переменных, для которой функция регрессии φ(х) линейна. Обозначим черезy x условную среднюю признакаY в генеральной совокупности при фиксированном значенииx переменнойХ . Тогда уравнение регрессии будет иметь вид:

y x = ax + b , гдеa коэффициент регрессии (показатель наклона линии линейной регрессии). Коэффициент регрессии показывает, на сколько единиц в среднем изменяется переменнаяY при изменении переменнойХ на одну единицу. С помощью метода наименьших квадратов получают формулы, по которым можно вычислять параметры линейной регрессии:

Таблица 1. Формулы для расчета параметров линейной регрессии

Свободный член b

Коэффициент регрессии a

Коэффициент детерминации

Проверка гипотезы о значимости уравнения регрессии

Н 0 :

Н 1 :

, ,, Приложение 7 (для линейной регрессии р = 1)

Направление связи между переменными определяется на основании знака коэффициента регрессии. Если знак при коэффициенте регрессии положительный, связь зависимой переменной с независимой будет положительной. Если знак при коэффициенте регрессии отрицательный, связь зависимой переменной с независимой является отрицательной (обратной).

Для анализа общего качества уравнения регрессии используют коэффициент детерминации R 2 , называемый также квадратом коэффициента множественной корреляции. Коэффициент детерминации (мера определенности) всегда находится в пределах интервала . Если значениеR 2 близко к единице, это означает, что построенная модель объясняет почти всю изменчивость соответствующих переменных. И наоборот, значениеR 2 близкое к нулю, означает плохое качество построенной модели.

Коэффициент детерминации R 2 показывает, на сколько процентовнайденная функция регрессии описывает связь между исходными значениямиY иХ . На рис. 3 показана– объясненная регрессионной моделью вариация и- общая вариация. Соответственно, величинапоказывает, сколько процентов вариации параметраY обусловлены факторами, не включенными в регрессионную модель.

При высоком значении коэффициента детерминации 75%) можно делать прогноздля конкретного значенияв пределах диапазона исходных данных. При прогнозах значений, не входящих в диапазон исходных данных, справедливость полученной модели гарантировать нельзя. Это объясняется тем, что может проявиться влияние новых факторов, которые модель не учитывает.

Оценка значимости уравнения регрессии осуществляется с помощью критерия Фишера (см. табл. 1). При условии справедливости нулевой гипотезы критерий имеет распределение Фишера с числом степеней свободы , (для парной линейной регрессиир = 1 ). Если нулевая гипотеза отклоняется, то уравнение регрессии считается статистически значимым. Если нулевая гипотеза не отклоняется, то признается статистическая незначимость или ненадежность уравнения регрессии.

Пример 1. В механическом цехе анализируется структура себестоимости продукции и доля покупных комплектующих. Было отмечено, что стоимость комплектующих зависит от времени их поставки. В качестве наиболее важного фактора, влияющего на время поставки, выбрано пройденное расстояние. Провести регрессионный анализ данных о поставках:

Расстояние, миль

Время, мин

Для проведения регрессионного анализа:

    построить график исходных данных, приближенно определить характер зависимости;

    выбрать вид функции регрессии и определить численные коэффициенты модели методом наименьших квадратов и направление связи;

    оценить силу регрессионной зависимости с помощью коэффициента детерминации;

    оценить значимость уравнения регрессии;

    сделать прогноз (или вывод о невозможности прогнозирования) по принятой модели для расстояния 2 мили.

2. Вычислим суммы, необходимые для расчета коэффициентов уравнения линейной регрессии и коэффициента детерминации R 2 :

; ;;.

Искомая регрессионная зависимость имеет вид: . Определяем направление связи между переменными: знак коэффициента регрессии положительный, следовательно, связь также является положительной, что подтверждает графическое предположение.

3. Вычислим коэффициент детерминации: или 92%. Таким образом, линейная модель объясняет 92% вариации времени поставки, что означает правильность выбора фактора (расстояния). Не объясняется 8% вариации времени, которые обусловлены остальными факторами, влияющими на время поставки, но не включенными в линейную модель регрессии.

4. Проверим значимость уравнения регрессии:

Т.к. – уравнение регрессии (линейной модели) статистически значимо.

5. Решим задачу прогнозирования. Поскольку коэффициент детерминации R 2 имеет достаточно высокое значение и расстояние 2 мили, для которого надо сделать прогноз, находится в пределах диапазона исходных данных, то можно сделать прогноз:

Регрессионный анализ удобно проводить с помощью возможностей Exel . Режим работы "Регрессия" служит для расчета параметров уравнения линейной регрессии и проверки его адекватности исследуемому процессу. В диалоговом окне следует заполнить следующие параметры:

Пример 2. Выполнить задание примера 1 с помощью режима "Регрессия" Exel .

ВЫВОД ИТОГОВ

Регрессионная статистика

Множественный R

R-квадрат

Нормированный R-квадрат

Стандартная ошибка

Наблюдения

Коэффициенты

Стандартная ошибка

t-статистика

P-Значение

Y-пересечение

Переменная X 1

Рассмотрим представленные в таблице результаты регрессионного анализа.

Величина R-квадрат , называемая также мерой определенности, характеризует качество полученной регрессионной прямой. Это качество выражается степенью соответствия между исходными данными и регрессионной моделью (расчетными данными). В нашем примере мера определенности равна 0,91829, что говорит об очень хорошей подгонке регрессионной прямой к исходным данным и совпадает с коэффициентом детерминации R 2 , вычисленным по формуле.

Множественный R - коэффициент множественной корреляции R - выражает степень зависимости независимых переменных (X) и зависимой переменной (Y) и равен квадратному корню из коэффициента детерминации. В простом линейном регрессионном анализе множественный коэффициент R равен линейному коэффициенту корреляции (r = 0,958).

Коэффициенты линейной модели: Y -пересечение выводит значение свободного члена b , а переменная Х1 – коэффициента регрессии а. Тогда уравнение линейной регрессии:

у = 2,6597 x + 5,9135 (что хорошо согласуется с результатами расчета в примере 1).

Далее проверим значимость коэффициентов регрессии: a и b . Сравнивая попарно значения столбцов Коэффициенты и Стандартная ошибка в таблице, видим, что абсолютные значения коэффициентов больше, чем их стандартные ошибки. К тому же эти коэффициенты являются значимыми, о чем можно судить по значениям показателя Р-значение, которые меньше заданного уровня значимости α=0,05.

Наблюдение

Предсказанное Y

Остатки

Стандартные остатки

В таблице представлены результаты вывода остатков . При помощи этой части отчета мы можем видеть отклонения каждой точки от построенной линии регрессии. Наибольшее абсолютное значение остатка в данном случае - 1,89256, наименьшее - 0,05399. Для лучшей интерпретации этих данных строят график исходных данных и построенной линией регрессии. Как видно из построения, линия регрессии хорошо "подогнана" под значения исходных данных, а отклонения носят случайный характер.

В целях исследований часто бывает удобно представить исследуемый объект в виде ящика, имеющего входы и выходы, не рассматривая детально его внутренней структуры. Конечно, преобразования в ящике (на объекте) происходят (сигналы проходят по связям и элементам, меняют свою форму и т. п.), но при таком представлении они происходят скрыто от наблюдателя.

По степени информированности исследователя об объекте существует деление объектов на три типа «ящиков»:

  • «белый ящик» : об объекте известно все;
  • «серый ящик» : известна структура объекта, неизвестны количественные значения параметров;
  • «черный ящик» : об объекте неизвестно ничего.

Черный ящик условно изображают как на рис. 2.1 .

Рис. 2.1. Обозначение черного ящика на схемах

Значения на входах и выходах черного ящика можно наблюдать и измерять. Содержимое ящика неизвестно.

Задача состоит в том, чтобы, зная множество значений на входах и выходах, построить модель, то есть определить функцию ящика, по которой вход преобразуется в выход. Такая задача называется задачей регрессионного анализа .

В зависимости от того, доступны входы исследователю для управления или только для наблюдения, можно говорить про активный или пассивный эксперимент с ящиком.

Пусть, например, перед нами стоит задача определить, как зависит выпуск продукции от количества потребляемой электроэнергии. Результаты наблюдений отобразим на графике (см. рис. 2.2 ). Всего на графике n экспериментальных точек, которые соответствуют n наблюдениям.

Рис. 2.2. Графический вид представления результатов
наблюдения над черным ящиком

Для начала предположим, что мы имеем дело с черным ящиком, имеющим один вход и один выход. Допустим для простоты, что зависимость между входом и выходом линейная или почти линейная. Тогда данная модель будет называться линейной одномерной регрессионной моделью .

1) Исследователь вносит гипотезу о структуре ящика

Рассматривая экспериментально полученные данные, предположим, что они подчиняются линейной гипотезе, то есть выход Y зависит от входа X линейно, то есть гипотеза имеет вид: Y = A 1 X + A 0 (рис. 2.2 ).

2) Определение неизвестных коэффициентов A 0 и A 1 модели

Линейная одномерная модель (рис. 2.3 ).

Рис. 2.3. Одномерная модель черного ящика

Для каждой из n снятых экспериментально точек вычислим ошибку (E i ) между экспериментальным значением (Y i Эксп. ) и теоретическим значением (Y i Теор. ), лежащим на гипотетической прямой A 1 X + A 0 (см. рис. 2.2 ):

E i = (Y i Эксп. – Y i Теор.), i = 1, …, n ;

E i = Y i – A 0 – A 1 · X i , i = 1, …, n .

Ошибки E i для всех n точек следует сложить. Чтобы положительные ошибки не компенсировали в сумме отрицательные, каждую из ошибок возводят в квадрат и складывают их значения в суммарную ошибку F уже одного знака:

E i 2 = (Y i – A 0 – A 1 · X i ) 2 , i = 1, …, n .

Цель метода — минимизация суммарной ошибки F за счет подбора коэффициентов A 0 , A 1 . Другими словами, это означает, что необходимо найти такие коэффициенты A 0 , A 1 линейной функции Y = A 1 X + A 0 , чтобы ее график проходил как можно ближе одновременно ко всем экспериментальным точкам. Поэтому данный метод называется методом наименьших квадратов .

Суммарная ошибка F является функцией двух переменных A 0 и A 1 , то есть F (A 0 , A 1) , меняя которые, можно влиять на величину суммарной ошибки (см. рис. 2.4 ).


Рис. 2.4. Примерный вид функции ошибки

Чтобы суммарную ошибку минимизировать, найдем частные производные от функции F по каждой переменной и приравняем их к нулю (условие экстремума):

После раскрытия скобок получим систему из двух линейных уравнений:

Для нахождения коэффициентов A 0 и A 1 методом Крамера представим систему в матричной форме:

Решение имеет вид:

Вычисляем значения A 0 и A 1 .

3) Проверка

Чтобы определить, принимается гипотеза или нет, нужно, во-первых, рассчитать ошибку между точками заданной экспериментальной и полученной теоретической зависимости и суммарную ошибку:

E i = (Y i Эксп. – Y i Теор.), i = 1, …, n

И, во-вторых, необходимо найти значение σ по формуле , где F — суммарная ошибка, n — общее число экспериментальных точек.

Если в полосу, ограниченную линиями Y Теор. – S и Y Теор. + S (рис. 2.5 ), попадает 68.26% и более экспериментальных точек Y i Эксп. , то выдвинутая нами гипотеза принимается. В противном случае выбирают более сложную гипотезу или проверяют исходные данные. Если требуется бо льшая уверенность в результате, то используют дополнительное условие: в полосу, ограниченную линиями Y Теор. – 2S и Y Теор. + 2S , должны попасть 95.44% и более экспериментальных точек Y i Эксп. .

Рис. 2.5. Исследование допустимости принятия гипотезы

Расстояние S связано с σ следующим соотношением:

S = σ /sin(β ) = σ /sin(90° – arctg(A 1)) = σ /cos(arctg(A 1)) ,

что проиллюстрировано на рис. 2.6 .

Рис. 2.7. Иллюстрация закона
нормального распределения ошибок

Наконец, приведем на рис. 2.8 графическую схему реализации одномерной линейной регрессионной модели.

Рис. 2.8. Схема реализации метода
наименьших квадратов в среде моделирования

Линейная множественная модель

Предположим, что функциональная структура ящика снова имеет линейную зависимость, но количество входных сигналов, действующих одновременно на объект, равно m (см. рис. 2.9 ):

Y = A 0 + A 1 · X 1 + … + A m · X m .

Рис. 2.9. Обозначение многомерного
черного ящика на схемах

Так как подразумевается, что мы имеем экспериментальные данные о всех входах и выходах черного ящика, то можно вычислить ошибку между экспериментальным (Y i Эксп. ) и теоретическим (Y i Теор. ) значением Y для каждой i -ой точки (пусть, как и прежде, число экспериментальных точек равно n ):

E i = (Y i Эксп. – Y i Теор.), i = 1, …, n ;

E i = Y i – A 0 – A 1 · X 1i – … – A m · X mi , i = 1, …, n .

Минимизируем суммарную ошибку F :

Ошибка F зависит от выбора параметров A 0 , A 1 , …, A m . Для нахождения экстремума приравняем все частные производные F по неизвестным A 0 , A 1 , …, A m к нулю:

Получим систему из m + 1 уравнения с m + 1 неизвестными, которую следует решить, чтобы определить коэффициенты линейной множественной модели A 0 , A 1 , …, A m . Для нахождения коэффициентов методом Крамера представим систему в матричном виде:

Вычисляем коэффициенты A 0 , A 1 , …, A m .

Далее, по аналогии с одномерной моделью (см. 3). «Проверка»), для каждой точки вычисляется ошибка E i ; затем находится суммарная ошибка F и значения σ и S с целью определить, принимается ли выдвинутая гипотеза о линейности многомерного черного ящика или нет.

При помощи подстановок и переобозначений к линейной множественной модели приводятся многие нелинейные модели. Подробно об этом рассказывается в материале следующей лекции.