Файл: Изложение проблемы Решение проблемы Заключение список использованных источников и литературы введение тема моей курсовой работы Линейная регрессия в трехмерном евклидовом пространстве.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 09.01.2024
Просмотров: 21
Скачиваний: 1
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ
ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ
ВЫСШЕГО ОБРАЗОВАНИЯ
«УФИМСКИЙ УНИВЕРСИТЕТ НАУКИ И ТЕХНОЛОГИЙ»
Факультет математики и информационных технологий кафедра алгебры
Направление подготовки (специальность): математика наименование дисциплины (модуля) алгебра
КУРСОВАЯ РАБОТА
ЛИНЕЙНАЯ РЕГРЕССИЯ В ТРЕХМЕРНОМ ЕВКЛИЕДОВОМ ПРОСТРАНСТВЕ
Научный руководитель: доц. Шарипов Р.А.
Выполнила: студентка 4 курса очной формы обучения группы 46 Шаяхметова В.В.
УФА – 2022
Содержание
Введение…………………………………………………………………………...………
Глава 1. Интерполяция, аппроксимация и регрессия………………………………...…
1.1 Понятие интерполяции, аппроксимации и регрессии………………………….
1.2 Метод наименьших квадратов………………………………………………..….
1.3 Математический анализ……………………………………………………….…
1.4 Статистика………………………………………………………………….……..
1.5 Теория вероятностей……………………………………………………………..
1.6 Мультилинейная регрессия……………………………………………………...
1.7 Линейная алгебра…………………………………………………………………
1.8 Произвольный базис……………………………………………………………...
Глава 2. Использование линейной регрессии в евклидовом пространстве……………
2.1 Параметрические и непараметрические векторные уравнения прямой линии…………………………………………………………………………………..
2.2 Изложение проблемы…………………………………………………………….
2.3 Решение проблемы……………………………………………………………….
2.4 Заключение ……………………………………………………………………….
Список использованных источников и литературы…………………………………….
ВВЕДЕНИЕ
Тема моей курсовой работы «Линейная регрессия в трехмерном евклидовом пространстве».
Линейная регрессия – один из наиболее широко используемых подходов, используемых для моделирования взаимосвязи между двумя или более переменными. Его можно применять где угодно, от прогнозирования продаж до предсказания урожайности.
Линейная регрессия в машинном обучении – это подход к моделированию отношений между целевой переменной и одной или несколькими "предсказывающими" переменными. Проще говоря, это «линия наилучшего соответствия», которая помогает спрогнозировать положение других точек в будущем.
Евклидово пространство - пространство, свойства которого описываются аксиомами евклидовой геометрии. В этом случае предполагается, что пространство имеет размерность равную 3.
В более общем смысле Евклидово пространство называется n-мepное векторное пространство, в котором возможно ввести некоторые специальные координаты.
В своей работе я хочу рассмотреть линейную регрессию и варианты ёё обобщений, решить задачу, для лучшего понимания темы. Для этого я постараюсь тщательно изучить научную и методическую литературу, подобрать и решить задачу по этой теме.
В первой главе я рассматриваю общие понятия по заданной теме, варианты обобщений линейной регрессии, а также нахожу коэффициенты различных линейный комбинаций, определяю регрессионную функцию ???? и рассматриваю график данных функций.
Во второй главе я изучаю тему своей работы «Линейная регрессии в трехмерном евклидовом пространстве» путем решения задачи.
Глава 1. Интерполяция, аппроксимация и регрессия
1.1 Понятие интерполяции, аппроксимации и регрессии
Есть три сходных между собой понятия, три сестры: интерполяция, аппроксимация и регрессия.
У них общая цель: из семейства функций выбрать ту, которая обладает определенным свойством.
Интерполяция — способ выбрать из семейства функций ту, которая проходит через заданные точки (рисунок 1). Часто функцию затем используют для вычисления в промежуточных точках. Например, мы вручную задаем цвет нескольким точкам и хотим чтобы цвета остальных точек образовали плавные переходы между заданными. Или задаем ключевые кадры анимации и хотим плавные переходы между ними. Классические примеры: интерполяция полиномами Лагранжа, сплайн-интерполяция, многомерная интерполяция (билинейная, трилинейная, методом ближайшего соседа и т.д.). Есть также родственное понятие экстраполяции — предсказание поведения функции вне интервала.
Например, предсказание курса доллара на основании предыдущих колебаний — экстраполяция.
Рисунок 1 – Интерполяция
Аппроксимация — способ выбрать из семейства «простых» функций приближение для «сложной» функции на отрезке, при этом ошибка не должна превышать определенного предела (рисунок 2).
Аппроксимацию используют, когда нужно получить функцию, похожую на данную, но более удобную для вычислений и манипуляций (дифференцирования, интегрирования и т.п).
Классические примеры включают ряд Тейлора на отрезке, аппроксимацию ортогональными многочленами, аппроксимацию Паде, аппроксимацию синуса Бхаскара и т.п.
Рисунок 2 – Аппроксимация
Регрессия — способ выбрать из семейства функций ту, которая минимизирует функцию потерь (рисунок 3). Последняя характеризует насколько сильно пробная функция отклоняется от значений в заданных точках. Если точки получены в эксперименте, они неизбежно содержат ошибку измерений, шум, поэтому разумнее требовать, чтобы функция передавала общую тенденцию, а не точно проходила через все точки. В каком-то смысле регрессия — это «интерполирующая аппроксимация»: мы хотим провести кривую как можно ближе к точкам и при этом сохранить ее максимально простой чтобы уловить общую тенденцию. За баланс между этими противоречивыми желаниями как-раз отвечает функция потерь (в английской литературе «loss function» или
«cost function»).
Рисунок 3 – Простая линейная регрессия
В данной работе мы рассмотрим линейную регрессию.
Семейство функций, из которых мы выбираем, представляет собой линейную комбинацию наперед заданных базисных функций ????
????
???? = ∑ ????
????
????
????
????
Цель регрессии — найти коэффициенты этой линейной комбинации, и тем самым определить регрессионную функцию ???? (которую также называют моделью). Отмечу, что линейную регрессию называют линейной именно из-за линейной комбинации базисных функций — это не связано с самыми базисными функциями (они могут быть линейными или нет).
Впервые метод опубликовал Лежандр в 1805 году, хотя Гаусс пришел к нему раньше и успешно использовал для предсказания орбиты «кометы» (на самом деле карликовой планеты) Цереры. Существует множество вариантов и обобщений линейной регрессии: LAD, метод наименьших квадратов, Ridge регрессия, Lasso регрессия,
ElasticNet и многие другие.
1.2 Метод наименьших квадратов
Начнём с простейшего двумерного случая. Пусть нам даны точки на плоскости
{(????
1
, ????
1
), ⋯ , (????
????
, ????
????
)} и мы ищем такую аффинную функцию
????(????) = ???? + ???? ∙ ????, ч тобы ее
график ближе всего находился к точкам. Таким образом, наш базис состоит из константной функции и линейной (1, ????).
Как видно из иллюстрации 4, расстояние от точки до прямой можно понимать по- разному, например геометрически — это длина перпендикуляра. Однако в контексте нашей задачи нам нужно функциональное расстояние, а не геометрическое.
Рисунок 4 - Понятие расстояния от точки до прямой
Нас интересует разница между экспериментальным значением и предсказанием модели для каждого ????
????
, поэтому измерять нужно вдоль оси ????.
Первое, что приходит в голову, в качестве функции потерь попробовать выражение, зависящее от абсолютных значений разниц |????(????
????
) − ????
????
|.
Простейший вариант — сумма модулей отклонений ∑ |????(????
????
) − ????
????
|
????
приводит к Least
Absolute Distance (LAD) регрессии.
Впрочем, более популярная функция потерь — сумма квадратов отклонений регрессанта от модели. В англоязычной литературе она носит название Sum of Squared
Errors (SSE)
Метод наименьших квадратов (по англ. OLS) — линейная регрессия c SSE(a,b) в качестве функции потерь (рисунок 5).
Как видно из иллюстрации 4, расстояние от точки до прямой можно понимать по- разному, например геометрически — это длина перпендикуляра. Однако в контексте нашей задачи нам нужно функциональное расстояние, а не геометрическое.
Рисунок 4 - Понятие расстояния от точки до прямой
Нас интересует разница между экспериментальным значением и предсказанием модели для каждого ????
????
, поэтому измерять нужно вдоль оси ????.
Первое, что приходит в голову, в качестве функции потерь попробовать выражение, зависящее от абсолютных значений разниц |????(????
????
) − ????
????
|.
Простейший вариант — сумма модулей отклонений ∑ |????(????
????
) − ????
????
|
????
приводит к Least
Absolute Distance (LAD) регрессии.
Впрочем, более популярная функция потерь — сумма квадратов отклонений регрессанта от модели. В англоязычной литературе она носит название Sum of Squared
Errors (SSE)
Метод наименьших квадратов (по англ. OLS) — линейная регрессия c SSE(a,b) в качестве функции потерь (рисунок 5).
Рисунок 5 – Линейная регрессия
Такой выбор прежде всего удобен: производная квадратичной функции — линейная функция, а линейные уравнения легко решаются.
1.3 Математический анализ
Простейший способ найти ????????????????????????
????,????
????????????(????, ????)— вычислить частные производные по a и b, приравнять их нулю и решить систему линейных уравнений
Значения параметров, минимизирующие функцию потерь, удовлетворяют уравнениям которые легко решить
1.4 Статистика
Полученные формулы можно компактно записать с помощью статистических эстиматоров: среднего〈∙〉, вариации ???? (стандартного отклонения), ковариации ????(∙,∙) и корреляции ????(∙,∙)
Перепишем ????̂ как где ????
????
это нескорректированное (смещенное) стандартное выборочное отклонение, а ????(????, ????) — ковариация. Теперь вспомним, что коэффициент корреляции (коэффициент корреляции Пирсона) и запишем
Рисунок 6 – Статистика
Теперь мы можем оценить все изящество дескриптивной статистики, записав уравнение регрессионной (рисунок 6) прямой так
Во-первых, это уравнение сразу указывает на два свойства регрессионной прямой:
прямая проходит через центр масс (〈????〉, 〈????〉);
если по оси x за единицу длины выбрать ????
????
, а по оси y — ????
????
, то угол наклона прямой будет от -45° до 45° . Это связано с тем, что −1 ≤ ????(????, ????) ≤ 1.
Во-вторых, теперь становится понятно, почему метод регрессии называется именно так. В единицах стандартного отклонения y отклоняется от своего среднего значения меньше чем x, потому что |????(????, ????) ≤ 1|. Это называется регрессией (от лат. regressus—
«возвращение») по отношению к среднему.
Это явление было описано сэром Фрэнсисом Гальтоном в конце XIX века в его статье «Регрессия к посредственности при наследовании роста». В статье показано, что черты (такие как рост), сильно отклоняющиеся от средних, редко передаются по наследству.
Возведя коэффициент корреляции в квадрат, получим коэффициент детерминации
???? = ????
2
. Квадрат этой статистической меры показывает насколько хорошо регрессионная модель описывает данные. ????
2
, равный 1, означает что функция идеально ложится на все точки — данные идеально скоррелированны.
Можно доказать, что ????
2
показывает какая доля вариативности в данных объясняется лучшей из линейных моделей. Чтобы понять, что это значит, введем определения
????????????
????????????????
— вариация исходных данных (вариация точек ????
????
).
????????????
????????????
— вариация остатков, то есть вариация отклонений от регрессионной модели
— от ????
????
нужно отнять предсказание модели и найти вариацию.
????????????
????????????
— вариация регрессии, то есть вариация предсказаний регрессионной модели в точках????
????
(обратите внимание, что среднее предсказаний модели совпадает с 〈
????〉)
(рисунок 7).
Рисунок 7 – Вариации
Дело в том, что вариация исходных данных разлагается в сумму двух других вариаций: вариации случайного шума (остатков) и вариации, которая объясняется моделью (регрессии) или
Как видим, стандартные отклонения образуют прямоугольный треугольник
(рисунок 8).
Рисунок 8 –Стандартные отклонения
Мы стремимся избавиться от вариативности, связанной с шумом и оставить лишь вариативность, которая объясняется моделью, — хотим отделить зерна от плевел. О том, насколько это удалось лучшей из линейных моделей, свидетельствует ????
2
, равный единице минус доля вариации ошибок в суммарной вариации или доле объясненной вариации (доля вариации регрессии в полной вариации)
R равен косинусу угла в прямоугольном треугольнике
(????
????????????????
, ????
????????????
, ????
????????????
). Кстати, иногда вводят долю необъясненной вариации ???????????? = 1 − ????
2
и она равна квадрату синуса в этом треугольнике. Если коэффициент детерминации мал, возможно мы выбрали неудачные базисные функции, линейная регрессия неприменима вовсе и т.п.
1.5 Теория вероятностей
Ранее мы пришли к функции потерь SSE(a,b) из соображений удобства, но к ней же можно прийти с помощью теории вероятностей и метода максимального правдоподобия
(ММП).
Предположим, у нас есть N независимых одинаково распределенных случайных величин
(в нашем случае — результатов измерений). Мы знаем вид функции распределения (напр. нормальное распределение), но хотим определить параметры, которые в нее входят
(например, ???? и ????). Для этого нужно вычислить вероятность получить N датапоинтов в предположении постоянных, но пока неизвестных параметров. Благодаря независимости измерений, мы получим произведение вероятностей реализации каждого измерения. Если мыслить полученную величину как функцию параметров (функция правдоподобия) и найти её максимум, мы получим оценку параметров. Зачастую вместо функции правдоподобия используют ее логарифм — дифференцировать его проще, а результат — тот же.
Вернемся к задаче простой регрессии. Допустим, что значения x нам известны точно, а в измерении y присутствует случайный шум (свойство слабой экзогенности). Более того, положим, что все отклонения от прямой (свойство линейности) вызваны шумом с постоянным распределением (постоянство распределения) (рисунок 9). Тогда
???? = ???? + ???????? + ????, где ???? — нормально распределенная случайная величина
Рисунок 9 –OLS регрессия и LAD регрессия
Исходя из предположений выше, запишем функцию правдоподобия
и ее логарифм
Таким образом, максимум правдоподобия достигается при минимуме
SSE что дает основание принять ее в качестве функции потерь. Кстати, если мы получим функцию потерь LAD регрессии
Подход, который мы использовали в этом разделе — один из возможных. Можно прийти к такому же результату, используя более общие свойства. В частности, свойство постоянства распределения можно ослабить, заменив на свойства независимости, постоянства вариации (гомоскедастичность) и отсутствия мультиколлинеарности. Также вместо ММП эстимации можно воспользоваться другими методами, например линейной
MMSE эстимацией.
1.6 Мультилинейная регрессия
До сих пор рассматривали задачу регрессии для одного скалярного признака x, однако обычно регрессор — это n-мерный вектор x. Другими словами, для каждого измерения мы регистрируем n фич, объединяя их в вектор. В этом случае логично принять модель с n+1 независимыми базисными функциями векторного аргумента — n степеней свободы соответствуют n фичам и еще одна — регрессанту y. Простейший выбор — линейные базисные функции (1, ????
1
, ⋯ , ????
????
). При n=1 получим уже знакомый нам базис
(1,x)/
Итак, мы хотим найти такой вектор (набор коэффициентов) w, что
Таким образом, максимум правдоподобия достигается при минимуме
SSE что дает основание принять ее в качестве функции потерь. Кстати, если мы получим функцию потерь LAD регрессии
Подход, который мы использовали в этом разделе — один из возможных. Можно прийти к такому же результату, используя более общие свойства. В частности, свойство постоянства распределения можно ослабить, заменив на свойства независимости, постоянства вариации (гомоскедастичность) и отсутствия мультиколлинеарности. Также вместо ММП эстимации можно воспользоваться другими методами, например линейной
MMSE эстимацией.
1.6 Мультилинейная регрессия
До сих пор рассматривали задачу регрессии для одного скалярного признака x, однако обычно регрессор — это n-мерный вектор x. Другими словами, для каждого измерения мы регистрируем n фич, объединяя их в вектор. В этом случае логично принять модель с n+1 независимыми базисными функциями векторного аргумента — n степеней свободы соответствуют n фичам и еще одна — регрессанту y. Простейший выбор — линейные базисные функции (1, ????
1
, ⋯ , ????
????
). При n=1 получим уже знакомый нам базис
(1,x)/
Итак, мы хотим найти такой вектор (набор коэффициентов) w, что
Знак −
̃ означает, что мы ищем решение, которое минимизирует сумму квадратов ошибок
Последнее уравнение можно переписать более удобным образом. Для этого расположим ????
(????)
в строках матрицы (матрицы информации)
Тогда столбцы матрицы ????
????
отвечают измерениям i-ой фичи. Здесь важно не запутаться: N — количество измерений, n — количество признаков (фич), которые мы регистрируем. Систему можно записать как
Квадрат нормы разности векторов в правой и левой частях уравнения образует функцию потерь
, которую намерены минимизировать
Продифференцируем финальное выражение по w приравняем производную к 0 и получим т.н. нормальные уравнения
Если столбцы матрицы информации X линейно независимы (нет идеально скоррелированных фич), то матрица ????
????
???? имеет обратную. Тогда можно записать
где псевдообратная к X.
Понятие псевдообратной матрицы введено в 1903 году Фредгольмом, она сыграла важную роль в работах Мура и Пенроуза.
Oбратить
????
????
???? и найти ????
+
можно только если столбцы X линейно независимы.
Впрочем, если столбцы X близки к линейной зависимости, вычисление (????
????
????)
−1
уже становится численно нестабильным. Степень линейной зависимости признаков в X или, как говорят мультиколлинеарности матрицы ????
????
????, можно измерить числом обусловленности — отношением максимального собственного значения к минимальному.
Чем оно больше, тем ближе ????
????
???? к вырожденной и неустойчивее вычисление псевдообратной.
1.7 Линейная алгебра
К решению задачи мультилинейной регрессии можно прийти довольно естественно и с помощью линейной алгебры и геометрии, ведь даже то, что в функции потерь фигурирует норма вектора ошибок уже намекает, что у задачи есть геометрическая сторона. Мы видели, что попытка найти линейную модель, описывающую экспериментальные точки, приводит к уравнению
???? ???? −
̃ ????
Если количество переменных равно количеству неизвестных и уравнения линейно независимы, то система имеет единственное решение. Однако, если число измерений превосходит число признаков, то есть уравнений больше чем неизвестных — система становится несовместной, переопределенной. В этом случае лучшее, что мы можем сделать — выбрать вектор w, образ которого ????
????
ближе остальных к y. Множество образов или колоночное пространство C (X) — это линейная комбинация вектор-столбцов матрицы X
Понятие псевдообратной матрицы введено в 1903 году Фредгольмом, она сыграла важную роль в работах Мура и Пенроуза.
Oбратить
????
????
???? и найти ????
+
можно только если столбцы X линейно независимы.
Впрочем, если столбцы X близки к линейной зависимости, вычисление (????
????
????)
−1
уже становится численно нестабильным. Степень линейной зависимости признаков в X или, как говорят мультиколлинеарности матрицы ????
????
????, можно измерить числом обусловленности — отношением максимального собственного значения к минимальному.
Чем оно больше, тем ближе ????
????
???? к вырожденной и неустойчивее вычисление псевдообратной.
1.7 Линейная алгебра
К решению задачи мультилинейной регрессии можно прийти довольно естественно и с помощью линейной алгебры и геометрии, ведь даже то, что в функции потерь фигурирует норма вектора ошибок уже намекает, что у задачи есть геометрическая сторона. Мы видели, что попытка найти линейную модель, описывающую экспериментальные точки, приводит к уравнению
???? ???? −
̃ ????
Если количество переменных равно количеству неизвестных и уравнения линейно независимы, то система имеет единственное решение. Однако, если число измерений превосходит число признаков, то есть уравнений больше чем неизвестных — система становится несовместной, переопределенной. В этом случае лучшее, что мы можем сделать — выбрать вектор w, образ которого ????
????
ближе остальных к y. Множество образов или колоночное пространство C (X) — это линейная комбинация вектор-столбцов матрицы X