Виды аппроксимирующих функций

Содержание

Виды аппроксимирующих функций и их описание

С помощью MS Excel можно также проводить автоматический анализ тренда на основе диаграмм. Для того чтобы правильно выбрать линию тренда на диаграмме, следует хорошо разбирать­ся в теоретических основах прогнозирования. Линию тренда можно добавить к ряду данных в том случае, если они представ­ляют собой диаграмму с областями, график, гистограмму, линей­чатую или точечную диаграмму.

В MS Excel предлагается выбрать одну из пяти типов аппрокси­мирующих линий или вычисление линии, показывающей сколь­зящее среднее. Скользящее среднее сглаживает флуктуации ряда данных, помещая отдельную точку данных на линии тренда на основании среднего для указанного числа первичных точек данных. Указанный выбор осуществляется на вкладке Тип диалогового окна Линия тренда(рис. 2.80), которое открывается по команде Диаграмма/Добавить линию тренда.Описание типов выби­раемых линий приведено в табл. 2.26.

Рис. 2.80.Окно Линия тренда, вкладка Тип

Таблица 2.26.Описание типов линий тренда

Тип Описание
1. Линейная Аппроксимирующая прямая: у = ax + b , где а – тангенс угла наклона, b – точка пере­сечения прямой с осью Y
2. Логарифмическая Логарифмическая аппроксимация: y=aln(x) + b , где а и b – константы, ln – натуральный лога­рифм
3.Полиномиальная Полиномиальная аппроксимация: у = ax6 + а2х5 + а3х4 + а4х3+ a5x2 + а6х + b, где аi, ,и b – константы. Максимальная степень полинома – 6
4. Степенная Степенная аппроксимация: y = axb ,где а и b – константы
5. Экспоненциальная Экспоненциальная аппроксимация: y = aebx, где а и b – константы, е – основание нату­рального логарифма
6. Линейная фильтрация Скользящее среднее. Каждая точка данных на линии тренда строится на основании среднего указанного числа точек данных (периодов). Чем больше число периодов, используемых для вы­числения скользящего среднего, тем более гладкой, но менее точной становится линия тренда

Необходимо учитывать также и настройки, которые можно сделать на вкладке Параметрыдиалогового окна Линия тренда (рис. 2.81):

· в области Название аппроксимирующей (сглаженной) кривой– задается название аппроксимирующей кривой;

· в области Прогноз– задается прогнозирование данных (впе­ред) или определяется история данных (назад) с помощью ли­нии тренда;

· флажок Пересечение кривой с осью Y в точке– устанавли­вается лишь в том случае, если эта точка известна;

· флажок Показывать уравнение на диаграмме–обеспечи­вает размещение на диаграмме уравнения аппроксимирующей функции с числовыми коэффициентами.


· флажок Поместить на диаграмму величину достоверности аппроксимации (R^2)–обеспечивает размещение на диаграмме квадрата коэффициента корреляции.

Рис. 2.81.Окно Линия тренда, вкладка Параметры

Примечание. Величина достоверности аппроксимации является одним из важ­нейших показателей, которые следует разместить на диаграмме. По этой величине (т. е. квадрату коэффициента корреляции) мож­но судить о правомерности использования того или иного уравне­ния регрессии. Если коэффициент лежит в диапазоне 0,9–1, то данную зависи­мость можно использовать для предсказания результата. Чем ближе к 1 коэффициент корреляции, тем более достоверна ис­пользуемая модель. Если коэффициент корреляции приближает­ся k-1, то это говорит об обратной зависимости между наблю­даемыми величинами.

Для добавления линии тренда к ряду данных диаграммы выполните следующие шаги:

1. Выделите диаграмму, для данных которой нужно добавить линию тренда.

2. Выберите команду Диаграмма/Добавить линию тренда.

3. В окне Линия тренда(см. рис. 2.80) отметьте ряд, для которо­го строится линия тренда, и выберите тип аппроксимации (вкладка Тип),а также установите параметры линии тренда (вкладка Параметры), нажмите кнопку ОК.

Примечание.Следует помнить, что при добавлении линии тренда к ряду дан­ных она с этим рядом связывается. Любые изменения значений точек ряда данных автоматически отражаются на линии тренда — происходит ее пересчет. Если ряд данных удаляется, то удаляет­ся также и линия тренда. Если тип диаграммы для ряда данных заменяется другим, кото­рый не входит в перечень допустимых (диаграмма с областями, график, гистограмма, линейчатая или точечная диаграмма), то ли­ния тренда удаляется.

Задание 15.1. Построение линий тренда и поиск подходящего

Уравнения регрессии

Имеются две наблюдаемые величины х и у, например, объемы потребления некоторого вида продукции за последние несколько месяцев (х – месяц, y – объем потребления). Необходимо найти математическую модель, наилучшим образом описывающую наблюдаемые значения.


Алгоритм поиска подхо­дящего уравнения регрессии.

1. Разместите на рабочем листе в виде таблицы наблюдаемые величины: х, у (как это сделано на рис. 2.82).

Рис. 2.82. Исходные данные

2. Постройте график функции у=f(x)по значениям этих величин (рис. 2.83).

Рис. 2.83. График функции y=f(x)

3. Постройте несколько линий тренда для исходных значений. С этой целью выделите диаграмму с графиком и выполните коман­ду меню Диаграмма/Добавить линию тренда,либо воспользуйтесь соответствующей командой контекстного меню.

4. В окне Линия тренда отметьте ряд, для которого строится линия тренда, и откройте вкладку Тип. Для каждого типа аппроксимирующей кривой (линейной, степенной, логарифмической и полиномиальной) выбрав вкладку Параметры установите флажки в поляПоказывать уравнение на диаграммеиПоместить на диаграмму величину достоверности аппроксимации (R^2).После установки параметров линии тренда нажмите кнопкуОК.Построенные линии тренда приведены на рис. 2.84.

Рис. 2.84. Линии тренда для исходного графика y=f(x)

5. Задайте интервал прогнозирования и определите историю данных (т. е. продлить линии тренда за исходную область данных). Интервал прогнозирования устанавливается с помощью кнопок Вперед на: и Назад на:(с шагом в полпериода) в поле Прогноз диалогового окна Линия тренда либо с клавиатуры (с любой дробностью).

6. Делается вывод о выборе того или иного типа аппроксимации и выписать аппроксимирующее уравнение линии, выделив ко­эффициенты. Исходя из результатов расчета, для описания данных наблюдаемых величин наиболее достоверной представляется линейная модель

y = 1,8857x + 5,4; R2 = 0,9723.

Замечание.Часто для аппроксимации произвольной выборки и разброса дан­ных подходит полиномиальное уравнение той или иной степени. Однако при прогнозировании уравнениями таких линий следует иметь в виду, что возможны большие ошибки в прогнозах и исто­рии данных. В таких случаях, если находится другая функция с близким коэффициентом корреляции, следует учесть ее уравнение регрессии.

Национальная библиотека им. Н. Э. Баумана Bauman National Library

Математические модели сигналов, детально и точно описывающие определенные физические объекты и процессы, могут быть очень сложными и мало пригодными для практического использования, как при математическом анализе физических данных, так и в прикладных задачах, основанных на математическом моделировании КПС. Кроме того, практическая регистрация сигналов выполняется, как правило, с определенной погрешностью или с определенным уровнем шумов, которые по своим значениям могут быть выше теоретической погрешности прогнозирования сигналов при расчетах по сложным, хотя и очень точным формулам. Не имеет большого смысла и проектирование систем обработки и анализа сигналов по высокоточным формулам, если повышение точности расчетов не дает ощутимого эффекта в повышении точности обработки данных. Во всех этих условиях возникает задача аппроксимации – представления произвольных сложных функций f ( x ) {\displaystyle f(x) \,\!} простыми и удобными для практического использования функциями φ ( x ) {\displaystyle \varphi(x) \,\!} таким образом, чтобы отклонение φ ( x ) {\displaystyle \varphi(x) \,\!} от f ( x ) {\displaystyle f(x) \,\!} в области ее задания было наименьшим по определенному критерию приближения. Функции φ ( x ) {\displaystyle \varphi(x) \,\!} получили название функций аппроксимации.

Математика очень часто оперирует со специальными математическими функциями решения дифференциальных уравнений и интегралов, которые не имеют аналитических выражений и представляются табличными числовыми значениями y i {\displaystyle y_i \,\!} для дискретных значений независимых переменных x i {\displaystyle x_{i}\,\!} . Аналогичными таблицами { y i , x i } {\displaystyle \big\{ y_i, x_i \big\} \,\!} могут представляться и экспериментальные данные. Точки, в которых определены дискретные значения функций или данных, называются узловыми. Однако на практике могут понадобиться значения данных величин совсем в других точках, отличных от узловых, или с другим шагом дискретизации аргументов. Возникающая при этом задача вычисления значений функции в промежутках между узами называется задачей интерполяции, за пределами семейства узловых точек вперед или назад по переменным – задачей экстраполяции или прогнозирования. Решение этих задач также обычно выполняется с использованием аппроксимирующих функций.

Сглаживание статистических данных или аппроксимация данных с учетом их статистических параметров относится к задачам регрессии, и рассматриваются в следующей теме. Как правило, при регрессионном анализе усреднение данных производится методом наименьших квадратов (МНК).

Все вышеперечисленные задачи относятся к задачам приближения сигналов и функций и имеют многовековую историю, в процессе которой сформировались классические математические методы аппроксимации, интерполяции, экстраполяции и регрессии функций. В рамках настоящего курса мы не будем углубляться в строгую математическую теорию этих операций. Все современные математические системы (Mathcad, MATLAB, Maple и пр.) имеют в своем составе универсальный аппарат выполнения таких операций, дающий пользователю возможность реализации любых практических задач по обработке данных без отвлечения на теоретические подробности их исполнения. В качестве основной математической системы для примеров использована система Mathcad.

Приближение сигналов рядами Тейлора

Исторически разложение функций в ряд Тейлора явилось одним из первых методов приближения функций в окрестностях точек x 0 {\displaystyle x_{0}\,\!} :

f ( x ) ≅ f ( x 0 ) + f ′ ( x 0 ) 1 ! ( x − x 0 ) + f ″ ( x 0 ) 2 ! ( x − x 0 ) 2 + . . . + f ( N ) ( x 0 ) N ! ( x − x 0 ) 2 {\displaystyle f(x) \cong f(x_0) + \frac{f'(x_0)}{1!} (x — x_0) + \frac{f»(x_0)}{2!} (x — x_0)^2 + … + \frac{f^{(N)}(x_0)}{N!} (x — x_0)^2 \,\!}
f ( x ) ≅ f ( x 0 ) + ∑ i = 1 n f ( i ) ( x 0 ) i ! ( x − x 0 ) i {\displaystyle f(x) \cong f(x_0) + \sum_{i=1}^n \frac{f^{(i)}(x_0)}{i!} (x — x_0)^i \,\!}

При разложении функции в окрестностях точки x 0 = 0 {\displaystyle x_0 = 0 \,\!} ряд Тейлора принято называть рядом Маклорена.

Рис. 1.1. Примеры разложения функций в ряд Маклорена.

Приближение функций рядом Тейлора имеет много недостатков. Оно применяется, в основном, для непрерывных и гладких функций в локальных интервалах задания. Для разрывных и периодически повторяющихся функций использовать его практически невозможно, равно как и для непрерывных не дифференцируемых функций. Операция дифференцирования сама по себе тоже может быть далеко не простой, а получаемые ряды могут сходиться очень медленно.

Интерполяция и экстраполяция сигналов

Линейная и квадратичная интерполяция

Линейная и квадратичная интерполяция являются самыми простыми способами обработки таблиц и выполняются по уравнениям:

f ( x ) l i m = a 0 + a 1 x , f ( x ) q u a d = a 0 + a 1 x + a 2 x 2 {\displaystyle ~f(x)_{lim} = a_0 + a_1 x, f(x)_{quad} = a_0 + a_1 x + a_2 x^2}

Полиномиальная интерполяция

Линейная и квадратичная аппроксимация являются частным случаем полиномиальной интерполяции с помощью аппроксимирующего полинома:

f ( x ) = a 0 + a 1 x + a 2 x 2 + . . . + a n x 2 = ∑ i = 0 n a i x i ( 2.1 ) {\displaystyle f(x) = a_0 + a_1 x + a_2 x^2 + … + a_n x^2 = \sum_{i=0}^{n} a_i x^i \qquad {\color{Maroon}(2.1)} \,\!}
Рис. 2.1. Интерполяция данных.

Для практического использования более удобны формулы аппроксимации, не требующие предварительного определения коэффициентов аппроксимирующих полиномов. К числу таких формул относится интерполяционных многочлен по Лагранжу. При аппроксимации функции y ( x ) {\displaystyle y(x) \,\!} многочленом n-й степени Y ( x ) {\displaystyle Y(x) \,\!} :

Пример интерполяции по Лагранжу приведен на рис. 2.2.

Рис. 2.2. Интерполяция данных.

Кривые Безье

Для задач аппроксимации широко применяются кривые Безье. Это связано с их удобством как для аналитического описания, так и для наглядного геометрического построения. При использовании кривых Безье в компьютерной графике пользователь может задавать форму кривой интерактивно, двигая опорные точки курсором на экране.

Наглядный метод построения этих кривых был предложен де Кастелье в 1959 году. Метод основан на разбиении отрезков, соединяющих исходные точки в отношении t {\displaystyle t \,\!} , а затем в рекурсивном повторении этого процесса для полученных отрезков:

P i j ( t ) = ( 1 − t ) P i j − 1 + t P i + 1 j − 1 ( t ) ( 2.3 ) {\displaystyle P_i^j (t) = (1-t) P_i^{j-1} + t P_{i+1}^{j-1} (t) \qquad {\color{Maroon}(2.3)} \,\!}

где нижний индекс — номер точки, верхний индекс — уровень разбиения. Уравнение кривой n-ого порядка задается уравнением: P ( t ) = P 0 n ( t ) {\displaystyle P(t) = P_0^n (t) \,\!} . Рис. 2.3.

Для каждого t ∈ {\displaystyle t \in \,\!} определим точку:

и тем самым получим кривую второго порядка.

Рис. 2.4.

Аналогичным образом построение кривой Безье с четырьмя опорными точками будет определяться следующими выражениями:

Общая аналитическая запись для кривых Безье по N + 1 {\displaystyle N+1\,\!} опорной точке:

P N ( t ) = ∑ i = 0 N P i B i N ( t ) {\displaystyle P^N (t) = \sum_{i=0}^N P_i B_i^N (t) \,\!}
где B i N ( t ) = C i N t i ( 1 − t ) N − i {\displaystyle B_i^N (t) = C_i^N t^i (1-t)^{N-i} \,\!} и C i N = N ! i ! ( N − i ) ! {\displaystyle C_i^N = \frac{N!}{i! (N-i)!} } – биномиальные коэффициенты.

Кривые Безье всегда проходят через начальную P 0 {\displaystyle P_{0}\,\!} и конечную P N {\displaystyle P_N \,\!} точки. Если рассматривать опорные точки в противоположном порядке, то форма кривой не изменяется. Если опорные точки лежат на одной прямой, то кривая Безье вырождается в отрезок, соединяющий эти точки. Степень многочлена, представляющего кривую в аналитическом виде, на 1 меньше числа опорных точек.

Сплайновая интерполяция

При сплайновой интерполяции обычно используются локальные полиномы не выше третьей степени. Так, например, кубические сплайны проходят через три смежные узловые точки (текущие опорные точки вычислений), при этом в граничных точках совпадают как значения полинома и функции, так и значения их первых и вторых производных. Коэффициенты полиномов, проходящих через три смежные узловые точки, рассчитываются так, чтобы непрерывными были первая и вторая его производные. Линия, которую описывает сплайн-функция, напоминает по форме гибкую линейку, закреплённую в узловых точках. Это создает высокую плавность сплайнового полинома по сравнению с другими методами аппроксимации и наглядно видно на рис. 3.1. Полиномы более высоких порядков чрезмерно громоздки для практики.

Рис. 3.1. Сплайновая интерполяция и интерполяция по Лагранжу.

Сплайновая аппроксимация может применяться для достаточно быстро изменяющихся функций, не имеющих разрывов функции и ее производных. Основной недостаток сплайнов – отсутствие единого аналитического выражения для описания функции. Попутно заметим также, что результаты экстраполяции функций, как это можно видеть на рис. 3.1, существенно зависят от метода аппроксимации, и, соответственно, к их достоверности нужно подходить достаточно осторожно.

  1. S:= cspline(X,Y) – возвращает вектор S вторых производных при приближении в опорных точках к кубическому полиному;
  2. S:= pspline(X,Y) – возвращает вектор S при приближении в опорных точках к параболиче-ской кривой;
  3. S:= lspline(X,Y) – возвращает вектор S при приближении в опорных точках к прямой.

По значениям вектора S функцией interp(S,X,Y,x) вычисляются значения аппроксимирующей функции по аргументам х. На рис. 3.2 приведен пример кубической сплайновой интерполяции двумерных цифровых данных с одновременным повышением узловой сетки цифровых данных в 4 раза.

Рис. 3.2. Сплайн — интерполяция двумерных данных.

Спектральный метод интерполяции

При дискретизации данных с равномерным шагом по аргументу наиболее точную интерполяцию финитных сигналов обеспечивает спектральный метод. При условии, естественно, что в спектре сигнала не содержится частотных составляющих, превышающих частоту Найквиста.

Спектр дискретного сигнала

s F = s ( t ) × F W F ( f ) ( 4.2 ) {\displaystyle s_{F} = s(t) \times F W_{F} (f) \qquad {\color{Maroon}(4.2)} \,\!}
W F ( f ) = s ( t ) ∑ n = − ∞ ∞ δ ( f − n F ) ( 4.3 ) {\displaystyle W_{F} (f) = s(t) \sum_{n = — \infty}^{\infty} \delta (f — nF) \qquad {\color{Maroon}(4.3)} \,\!}

Отсюда, для спектра дискретного сигнала имеем:

F ⋅ S ( f ) = F ⋅ Π F ( f ) ( 4.5 ) {\displaystyle F \cdot S (f) = F \cdot \Pi_F (f) \qquad {\color{Maroon}(4.5)} \,\!}
Рис. 4.1. Спектральный метод интерполяции и экстраполяции.

На рис. 4.1 приведен пример интерполяции и экстраполяции равномерных по аргументу дискретных данных в сравнении с сплайн-методом и методом по Лагранжу. Исходная аналоговая кривая дискретизирована корректно ( f m a x < 1 2 Δ t {\displaystyle f_{max} < \tfrac{1}{2 \Delta t} \,\!} ) и восстановленная по дискретным данным кривая f S ( z ) {\displaystyle fS(z) \,\!} полностью ее повторяет. Близкие результаты к исходному сигналу дает также и сплайн-интерполяция, но доверять сплайн-экстраполяции, особенно по концевой части интервала задания данного сигнала, не приходится. Что касается интерполяции по Лагранжу, то можно видеть существенную погрешность интерполяции на концевых частях интервала сигнала и полную ее непригодность для задачи экстраполяции.

Попутно заметим, что хотя спектр сигнала представляет собой непрерывную кривую, вычисление спектра, учитывая информационную равноценность динамического и спектрального представления сигналов, также может производиться в дискретном варианте с использованием быстрого преобразования Фурье.

При нарушении корректности дискретизации данных погрешности интерполяции возрастают практически во всех методах интерполяции, а не только в спектральном методе. Это можно видеть на рис. 4.2, который полностью повторяет рис. 4.1 с изменением значения только одного, пятого отсчета (уменьшение с 7.84 до 2), что вызывает подъем высоких частот в спектре данных.

Рис. 4.2.

Следует учитывать, что при интерполяции данных, представляющих собой вырезки из сигнальных функций с определенной постоянной составляющей (сигнал не выходит на нулевые значения на концевых участках интервала задания), а равно и любых данных со скачками функций, при спектральном преобразовании на интерполированном сигнале в окрестностях обрезания данных (и скачков) возникает явление Гиббса. Это можно наглядно видеть сравнением рисунков 4.1 и 4.3. Данные на рис. 4.1 в рисунке 4.3 подняты на 20 единиц постоянной составляющей.

Рис. 4.3.

Для исключения этого эффекта можно рекомендовать перед интерполяцией производить определение линейного тренда данных по концевым значениям отсчетов и вычитать его из данных, с последующим восстановлением после интерполяции.

Интерполяционный ряд Котельникова

F ⋅ s ( f ) = F ⋅ S ( f ) ⊗ s i n c ( π F t ) {\displaystyle F \cdot s (f) = F \cdot S(f) \otimes sinc (\pi F t) \,\!}
s ( t ) = s i n c ( π F t ) ⊗ ∑ k = − ∞ ∞ s ( k Δ t ) δ ( t − k Δ t ) {\displaystyle s (t) = sinc (\pi F t) \otimes \sum_{k = — \infty}^{\infty} s (k \Delta t) \delta (t — k \Delta t) \,\!}
s ( t ) = ∑ k = − ∞ ∞ s ( k Δ t ) s i n c ( 4.6 ) {\displaystyle s (t) = \sum_{k = — \infty}^{\infty} s (k \Delta t) sinc \qquad {\color{Maroon}(4.6)} \,\!}

На рис. 4.4 приведен пример интерполяции входных данных, повторяющих данные рис. 4.1. Результаты интерполяции, как и следовало ожидать, абсолютно идентичны. Аналогичным образом влияют на результаты усечение и скачки функций (явление Гиббса).

Рис. 4.4. Интерполяция по Котельникову-Шеннону.

Децимация и интерполяция цифровых сигналов

Применительно к цифровым сигналам децимация – уменьшение частоты дискретизации данных с сохранением в новом сигнале всей полезной информации. Интерполяция обратна децимации – увеличение частоты дискретизации также без изменения информации. Цифровая децимация и интерполяция широко используется в современных системах обработки данных с различными ширинами полос и частотами дискретизации, для сжатия и восстановления данных, для уменьшения объемов памяти хранения данных, для увеличения скорости передачи данных, для увеличения производительности систем с обработкой данных на разных скоростях, и т.п. Так, например, реализация узкополосных цифровых КИХ-фильтров требует очень большого числа коэффициентов, и децимация данных может существенно снизить размер фильтра и повысить скорость их обработки.

Простой, но мало производительный подход, к тому же не гарантирующий от внесения дополнительных ошибок – восстановить сигнал в аналоговой форме (ЦАП) и заново оцифровать его (АЦП) с новой частотой дискретизации. Цифровые методы позволяют выполнить эту операцию в более эффективной форме.

Децимация с целым шагом

y ( m ) = ∑ k = 0 K x ( k ) ⋅ δ ( k − m M ) , m = 0 , 1 , 2 , . . . , K M ( 5.1 ) {\displaystyle y(m) = \sum_{k=0}^{K} x(k) \cdot \delta (k -mM), m = 0, 1, 2, . . . , \frac{K}{M} \qquad {\color{Maroon}(5.1)} \,\!}
Рис. 5.1.

Входные сигналы кроме полезной информации могут содержать статистические шумы и помехи, распределенные по всему частотному диапазону. При децимации шумы и помехи в частотном диапазоне от f N M {\displaystyle \tfrac{f_N}{M} \,\!} до f N {\displaystyle f_N \,\!} входного сигнала зеркально отражаются от f N ′ {\displaystyle f_N’ \,\!} нового главного частотного диапазона и их суммирование со спектром нового главного диапазона и полезного сигнала может приводить к увеличению уровня шумов и искажению информации. Для исключения этого эффекта перед конверсией сигнала необходимо выполнять его низкочастотную фильтрацию со срезом на частоте f N 2 M {\displaystyle \tfrac{f_N}{2M} \,\!} .

Рис. 5.2.

Интерполяция с целым шагом

Рис. 5.3.

Преобразование частоты дискретизации с нецелым шагом

Преобразование частоты дискретизации с нецелым шагом на практике обычно выполняют представлением нецелого множителя максимально близким приближением рациональными числами вида L / M {\displaystyle L/M \,\!} , Это позволяет выполнять преобразование частоты дискретизации последовательными операциями сначала интерполяции с шагом L {\displaystyle L \,\!} , сохраняющей все частотные составляющие сигнала, и затем децимации с шагом M {\displaystyle M\,\!} , при которой часть высокочастотных составляющих и шумов будет подавлена низкочастотной фильтрацией. Поскольку при этом низкочастотные фильтры экспандирования и децимации следуют друг за другом и работают на одной частоте дискретизации, то вместо двух фильтров можно применять один, имеющий минимальную частоту среза с коэффициентом усиления, равным L.

При программной обработке больших пакетов данных децимация и интерполяция может выполняться в спектральной области с использованием БПФ.

Методика аппроксимации эмпирических данных

Эмпирические данные, как правило, задаются числовыми рядами значений двух величин: независимой ( y k {\displaystyle y_k \,\!} ) и зависимой ( x k {\displaystyle x_k \,\!} ), каждая из которых в общем случае кроме определенной регулярной (детерминированной) составляющей может содержать и случайные составляющие самой различной природы, обусловленные как статистической природой изучаемых процессов, так и внешними факторами процессов измерений и преобразования данных (шумы, помехи, дестабилизирующие факторы и ошибки измерений). Независимая переменная x k {\displaystyle x_k \,\!} обычно полагается детерминированной, а, следовательно, ее случайная составляющая «переносится» на зависимую переменную y k {\displaystyle y_k \,\!} . Полагается также, что значения случайной составляющей зависимой переменной (как собственные, так и «суммарные») распределены по некоторому вероятностному закону (например – нормальному).

При выполнении аппроксимации данных априорно предполагается существование определенной детерминированной связи y ( x ) {\displaystyle y(x) \,\!} между регулярными составляющими этих двух числовых рядов на статистически значимом уровне, достаточном для ее выявления на уровне случайных составляющих. Задача выявления такой закономерности относится к числу неопределенных и неоднозначных, результат которой существенно зависит от трех основных и весьма субъективных факторов:

  1. выбора меры близости зависимой переменной к искомой функции и метода построения приближения (параметров математической модели);
  2. выбора подходящего класса функции аппроксимации (степенной, тригонометрической и пр.), отвечающего физической природе моделируемого процесса;
  3. метода оптимизации порядка модельной функции или числа членов ряда аппроксимирующего выражения.

Отсюда следует, что оптимальная аппроксимация может быть обеспечена только достаточно гибкими интерактивными алгоритмами на основе многоэтапных итерационных процессов с возможностью коррекции на каждом этапе.

Мера приближения

∑ k S → m i n ( 6.1 ) {\displaystyle \sum_{k}^{} ^S \rightarrow min \qquad {\color{Maroon}(6.1)} \,\!}
где S > 0 {\displaystyle S > 0 \,\!} — положительное число.

Квадратичная мера

Квадратичная мера реализуется при S = 2 {\displaystyle S = 2 \,\!} в методе наименьших квадратов (МНК) и обеспечивает максимальное правдоподобие функции приближения при нормальном распределении случайной составляющей зависимой переменной y k {\displaystyle y_k \,\!} . Несмещенной оценкой меры приближения в МНК является дисперсия остатков:

D = ∑ k 2 k − m ( 6.2 ) {\displaystyle D = \frac{ \sum_{k}^{} ^2 }{k-m} \qquad {\color{Maroon}(6.2)} \,\!}
где m {\displaystyle m \,\!} – количество параметров в функции приближения, ( k − m ) {\displaystyle (k-m) \,\!} – число степеней свободы.

Однако эмпирические данные могут содержать выбросы и грубые ошибки, которые вызывают смещения вычисляемых параметров. Их влияние обычно исключается цензурированием данных: вычислением гистограммы разностей y k − φ ( x k ) {\displaystyle y_k — \varphi (x_k) \,\!} после определения первого приближения функции аппроксимации и исключением «хвостовых» элементов гистограммы (до 2.5% от количества данных, или резко выделяющихся элементов данных на основании оценок вероятностей с использованием r- или t- распределений).

Мера наименьших модулей (метод Лагранжа)

Мера наименьших модулей (метод Лагранжа) реализуется при S = 1 {\displaystyle S = 1 \,\!} и применяется при распределениях случайных составляющих зависимой переменной по законам, близким к закону Лапласа (двустороннее экспоненциальное распределение). Такая мера соответствует площади между графиками эмпирических данных и функции аппроксимации, и, по сравнению с квадратической, является более устойчивой, в том числе при наличии случайных составляющих с большими амплитудами (длинные «хвосты» разностных гистограмм). Оценки по модулю получили название «робастных» (robust – устойчивый).

Минимаксная мера (мера Чебышева)

Минимаксная мера (мера Чебышева – минимизация максимального расхождения функции аппроксимации с данными) обеспечивает наилучшее приближение при равномерном распределении значений случайной составляющей, но не является устойчивой при наличии больших расхождений данных с функцией аппроксимации.

Аппроксимирующая функция

Аппроксимирующая функция, в принципе, может быть математической функцией любого типа, линейной комбинацией различных функций или функциональным рядом из степенных, тригонометрических и любых других функций. В основу ее построения желательно закладывать априорные (теоретические) предположения о сущности изучаемого явления, хотя бы по таким свойствам, как область определения переменных и производных, асимптоты, минимумы и максимумы.

При полном отсутствии априорной информации о распределении случайной составляющей данных, на начальном этапе обычно используется квадратичная мера приближения, при этом существенное значение имеет количество задаваемых параметров функции аппроксимации, особенно при малом количестве данных. Как следует из ( 6.2 ) {\displaystyle (6.2) \,\!} , при прочих равных условиях целесообразно использовать функции с минимальным количеством задаваемых параметров, что обеспечивает большее число степеней свободы и, соответственно, меньшие значения дисперсии остатков.

Наибольшее распространение в практике аппроксимации при отсутствии теоретических аспектов изучаемых явлений получили функциональные ряды, для которых определяющее значение имеет порядок аппроксимирующей функции (модели).

Порядок модели

Порядок модели ограничивает число членов функционального ряда аппроксимирующей функции определенным оптимальным количеством членов ряда, которое обеспечивает обоснованное расхождение с фактическими данными и минимизирующее отклонение от искомой регулярной составляющей данных.

Очевидно, что для функциональных рядов порядок модели (степень ряда для степенных рядов) определяет значение меры приближения. При повышении порядка модели (в пределе до бесконечности) минимум функции ( 6.1 ) {\displaystyle (6.1) \,\!} стремится к нулю. Однако это означает, что при повышении порядка модели в функцию аппроксимации входит не только регулярная составляющая данных, но все большая и большая доля случайных составляющих, в пределе до полного соответствия функции φ k {\displaystyle \varphi_k \,\!} исходным данным y k {\displaystyle y_k \,\!} . Но повышение степени приближения к исходным данным при наличии в них случайных составляющих с какого-то определенного момента (порядка модели) не только не будет приближать функцию аппроксимации к регулярным составляющим данных, а наоборот – увеличивать расхождение. С этой точки зрения термин «меры приближения» ( 6.1 ) {\displaystyle (6.1) \,\!} было бы целесообразнее заменить термином «мера аппроксимации» данных, а под мерой приближения понимать значение меры аппроксимации, при которой обеспечивается максимальная степень приближения функции аппроксимации к регулярной составляющей данных (минимум дисперсии разности функций аппроксимации и регулярной составляющей). При достаточно сложном физическом представлении во временной (координатной) области деконволюция проста для понимания в частотном представлении. Допустим, что в какой-либо регистрирующей системе происходит резонансное поглощение энергии и сдвиг по фазе определенного гармонического колебания в составе входного сигнала, например, преобразование гармоники ω 0 t → s i n ( ω 0 − π 4 ) {\displaystyle \omega _{0}t\rightarrow sin\left(\omega _{0}-{\frac {\pi }{4}}\right)\,\!} . Соответственно, для восстановления первоначальной формы сигнала операция деконволюции должна выполнить усиление данной гармоники в выходном сигнале в 2 раза и осуществить обратный сдвиг фазы на π 4 {\displaystyle {\frac {\pi }{4}}\,\!} . Для одной гармоники выполнение такой операции труда не представляет. Но практические задачи деконволюции значительно сложнее, так как требуется, как правило, восстановление полного спектра исходного сигнала, имеющего непрерывный характер.

При нулевом значении математического ожидания случайных величин s k {\displaystyle s_k \,\!} значение второй суммы стремится к нулю, при этом для оптимальной аппроксимирующей функции:

∑ k 2 → m i n ( 6.3 ) {\displaystyle \sum_{k}^{} ^2 \rightarrow min \qquad {\color{Maroon}(6.3)} \,\!}
∑ k 2 → ∑ k σ k 2 ( 6.4 ) {\displaystyle \sum_{k}^{} ^2 \rightarrow \sum_{k}^{} \sigma_k^2 \qquad {\color{Maroon}(6.4)} \,\!}
∑ k 2 k − m ≈ ∑ k σ k 2 k ( 6.5 ) {\displaystyle \frac{\sum_{k}^{} ^2}{k-m} \approx \sum_{k}^{} \frac{\sigma_k^2}{k} \qquad {\color{Maroon}(6.5)} \,\!}

Отсюда следует, что при прочих равных условиях наилучшим является приближение, у которого мера приближения близка к дисперсии шума. Для «белых» шумов оценку их дисперсии в экспериментальных данных можно выполнять в спектральной области, если частота Найквиста данных минимум в 2 раза выше предельных частот регулярной составляющей.

При отсутствии информации о дисперсии шумов оптимальный порядок модели может определяться методом последовательных уточнений с последовательным нарастанием порядка модели и сравнением по критерию Фишера значимости различия дисперсии остатков каждого нового порядка с предыдущим порядком. При увеличении порядка модели (начиная с 1-го) значимость различия дисперсий сначала является довольно высокой, постепенно уменьшается, и в области оптимальных порядков становится малозначимой. Это объясняется тем, что в этой области при небольших уменьшениях значения числителя выражения ( 6.2 ) {\displaystyle {\color{Maroon}(6.2)} \,\!} одновременно, за счет увеличения порядка, сокращается число степеней свободы. После прохождения оптимальной зоны значения дисперсий остатков снова начинают увеличиваться с увеличением значимости различий.

Оптимальный порядок модели при нормальном распределении шума может устанавливаться и непосредственно по минимуму дисперсии остатков. Это можно наглядно видеть на примере, приведенном на рис. 6.1.

Одномерная полиномиальная аппроксимация данных в векторе Y полиномом с произвольной степенью n и с произвольными координатами отсчетов в векторе Х в Mathcad выполняется функциями:

f ( x ) = c 0 + c 1 ⋅ x 1 + c 2 ⋅ x 2 + . . . + c n ⋅ x n = ∑ k c i ⋅ x i {\displaystyle f(x) = c_0 + c_1 \cdot x^1 + c_2 \cdot x^2 + … + c_n \cdot x^n = \sum_{k}^{} c_i \cdot x^i \,\!}

Значения коэффициентов c i {\displaystyle c_i } могут быть извлечены из вектора S функцией.

  1. submatrix(S, 3, length(S), 0, 0).

Рис. 6.1.

Оценка качества приближения

Для оценки качества математической модели эмпирической зависимости используется коэффициент детерминации ( A d j u s t e d R 2 {\displaystyle Adjusted R^2 } ):

A d j u s t e d R 2 = D φ D y = 1 − D 0 D y {\displaystyle ~ Adjusted R^2 = \frac{D_{\varphi}}{D_y} = 1 — \frac{D_0}{D_y}}
где D φ {\displaystyle D_\varphi \,\!} — дисперсия функции приближения, D y {\displaystyle D_y \,\!} – дисперсия данных, D 0 {\displaystyle D_0 \,\!} – дисперсия остатков.

Чем выше качество аппроксимации, тем ближе к 1 значение коэффициента детерминации.

См. также

  • Цифровая обработка сигналов в электронном тракте
  • Преобразование одномерных случайных сигналов в КПС
  • Z-преобразование сигналов
  • Регрессионный анализ сигналов
  • Обработка двумерных цифровых сигналов
  • Распознавание двумерных сигналов
  • Анализ сигналов на основе вейвлет-преобразования
  • Свойства вейвлет-преобразования
  • Вейвлетный кратномасштабный анализ
  • КИХ фильтры
  • БИХ фильтры
  • Цифровые фильтры в каналах передачи одномерных сигналов
  • Фильтры, реализующие метод наименьших квадратов
  • Фильтры, реализующие разностные и интегральные операторы
  • Рекурсивные частотные цифровые фильтры
  • Адаптивная фильтрация цифровых данных
  • Оптимальная линейная цифровая фильтрация
  • Медианная фильтрация
  • Методические ошибки цифровой фильтрации
  • Восстановление цифровых сигналов

Литература

Ссылки

  1. «Иванов Д.В. и др. Алгоритмические основы растровой графики. – Интернет университет информационных технологий.»;

Понятие об аппроксимации функций. Виды аппроксимации. Интерполирование. Приближение и его оценка

⇐ ПредыдущаяСтр 12 из 27

Часто в результате экспериментальных данных или расчетов получаем зависимость в виде определенного числа точек (в виде дискретного множества), то есть для функции неизвестна зависимость, а известны только некоторые её промежуточные результаты. Получению зависимостей для таких функций в требуемой области и служит задача об аппроксимации функций (рис. 5.1).

Аппроксимация функций – это нахождение функции , максимальной близкой действительной функции , так чтобы отклонение её, по крайней мере, в заданной области изменения аргумента x было наименьшим.

Функцию показывают аппроксимирующей.

Подобный подход используется и в методе конечных элементов, где задаются аппроксимирующие функции для перемещений, которые в дальнейшем должны дать близкие к действительным перемещения (деформации) и усилия.

Для аппроксимации часто используют многочлены вида

, (5.1)

где коэффициенты ai подбирают из определенных условий так, чтобы достичь наименьшего отклонения многочлена от действительной функции.

Если приближение строится на дискретном множестве точек, то аппроксимация называется точечной (рис. 5.1).

Если приближение строится для непрерывной функции на некотором отрезке , то
аппроксимация называется непрерывной или
интегральной (рис. 5.2).

Одним из основных видов точечной аппроксимации является интерполирование.

Оно состоит в следующем: задаем многочлен, которой должен принимать в известных точках хi те же значения yi, что и заданная дискретно функция y = φ(х); то есть в этих точках должно быть φ(хi) = yi, . При этом точки хi называются узлами интерполяции, а многочлен y (х) – интерполирующим многочленом. Интерполяция может быть глобальной (на всем участке изменения аргумента х) и локальной (кусочной) – на отдельных участках изменения функции.

В случае большого количества точек, часто невозможно найти многочлен, который бы проходил через все эти точки (тем более, что и при получении точек в эксперименте могут быть погрешности и ошибки). В этих случаях находят такой многочлен, который проходил бы максимально близко от заданных точек. Понятие «близко» оценивается разными путями.

Одной из распространенных мер отклонения многочлена от заданной функции является среднеквадратичное приближение, определяемое

выражением . (5.2)

Задача состоит в подборе интерполирующего многочлена таким образом, чтобы S было наименьшим.

Приближение функции φ (х) к f (х) может оцениваться и на основе абсолютного отклонения Δ, равного

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *