2 Egg
обсудить можно теорию, обсудить можно с практической точки зрения
готов и к тому и к другому
1. С теоретической точки зрения преимущество метода в том, что он выводится. В начале статьи есть набор теоретических положений. Если с ними согласиться, то в этом случае метод будет лучшим из возможных, просто потому что он из этих положений выведен. Если с положениями частично не согласиться, это тоже не значит что метод нельзя будет успешно использовать, но уже нельзя будет полагать что он в данном случае будет давать оптимальный результат. Допущения в статье сводятся к тому, что мы предполагаем, что допустимо использовать представления случайных функций (2) или (3) (а затем переходим к (20)), а также выполнение свойств (17) - (19), которые сводятся к тому, что результаты не должны зависеть от преобразования систем отсчета.
Прямого сравнения с другими алгоритмами в данной статье не приводилось, хотя такие тесты есть. Можно провести сравнение с дургими методами на некотором наборе тестовых задач, но думаю можно сделать лучше. В общении с собеседниками уже успел заметить замечание, что обычно говорят - что то что рассматривается, возможно так и есть, но это исключительный частный случай. Я с этим не согласен. Уверен, что можно теоретически доказать преимущество данного метода при решении широкого класса задач по сравнению с другими аналогами, собираюсь в будущем подготовить специальную статью на эту тему.
2. Кластеризация в данном случае просто рассматривалась как частный случай регрессии. Набор входных данных - координаты на плоскости. Количество выходов равно количеству классов. В данном случае 2 или 3. Например пусть будет 3 класса: тогда если элемент выборки принадлежит классу 1 то будем считать что первая выходная переменная равна 1, остальные две 0, если принадлежность второму классу - то вторая выходная переменная равно 1 а остальные 0 и т.д. Вобщем-то это выражается в виде выходнных веторов. Затем интерполяция (или аппроксимация). С тремя классами удобно использовать цветовое представление RGB.
3. Варианты применения примерно те же, где пытаются использовать алгоритмы искусственных нейронных сетей (обучения с учителем). Но по сравнению с ними есть преимущества: простота программной реализации, топологию выбирать не нужно, алгоритм точный (не итеративный) с гарантированным получением результата (известным конечным временем вычислений), ожидание оптимальности результата, если мы согласны допустить выполнение теоретических положений из которых метод выведен. Кроме того есть собственные плюсы: если заранее известен уровень шума в данных или его распределение в признаковом пространстве - это можно прямо задать, и будет выполнена аппроксимация с его учетом. Есть возможность не только рассчитать результат интерполяции или аппроксимации но и оценить возможную ожидаемую ошибку (насколько можно доверять возвращаемому методом ответу при обработке конкретных входных данных) в любой интересующей точке пространства.
4. На Рис.25 - это не результат интерполяции/экстраполяции. Это демонстрация анализа временного ряда. Предложенный метод - это ведь просто математическая конструкция, но ведь результат зависит не только от самой математики но и от того каким образом представить решаемую задачу. В данном случае берется временной ряд, но мы его не интерполируем а попытаемся сделать прогноз его следующего значения. Для этого составляем обучающую выборку, когда берется n предыдущих значений на входе, а на выходе берем n+1 по счету значение. Делаем интерполяцию или аппроксимацию в этом n - мерном пространстве. А затем решаем задачу прогноза: берем n предыдущих значений - прогнозируем n+1, затем берем n новых значений включая уже найденное и прогнозируем следующее и т.д.