Искусственный Интеллект

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Искусственный Интеллект » Макеты и реализации » Многомерная интерполяция и аппроксимация


Многомерная интерполяция и аппроксимация

Сообщений 1 страница 27 из 27

1

Приветствую участников форума!

Не знаю по теме ли пишу в "Макеты и реализации". Но в общем-то пишу о том что можно "потрогать руками".
Выложил на ресурсе wwwmachinelearning.ru статью про машинное обучение. На нее есть ссылка с заглавной страницы в разделе новые статьи - "Многомерная интерполяция и аппроксимация на основе теории случайных функций." Хотелось бы иметь дискуссию, обсудить. Надеюсь статья будет присутствующим интересна. В ее конце есть ссылка на архив с демонстрациями в Matlab, там же есть готовые функции, которые может испытать любой желающий.

С Уважением, Бахвалов Юрий

Прямая ссылка:
http://www.machinelearning.ru/wiki/index.php?title=Многомерная_интерполяция_и_аппроксимация_на_основе_теории_случайных_функций

Отредактировано xolod (2009-10-01 14:41:49)

0

2

xolod написал(а):

Хотелось бы иметь дискуссию, обсудить.

все зависит от того, на каком уровне вы хотите обсудить...
если на уровне математики вашей работы - думаю, это будет довольно тяжело,
для того, чтобы начать беседовать, нужно, вслед за вашей работой, повторить все выводы... :)
если на уровне ни-к-чему-не-обязывающей беседы, то с удовольствием...

Вопросы у меня такие:

1. Способов интерполяции довольно много. Почему этот способ лучше прочих?
Наверное, было бы неплохо провести какое-то сравнение прямо в статье.

2. У вас там есть пример кластеризации на плоскости для двух и трех классов (Рис. 23, 24) ...
в тексте не нашел, Matlab не пользую, можно в паре слов от вас услышать методику?

3. В целом, смотрю на такие вещи как инженер, уверен, что есть класс задач, где такой метод
может найти наилучшее применение (это кстати, вопрос №3 - что это за задачи?),
мой личный опыт показывает, что лучше использовать как можно более простые методы,
особенно, если видеть за каждой задачей какую-то реальность, "внутри" которой она возникает...
можем обсудить это...

4. непонятен пример (Рис. 25) с продолжением временного ряда...
про экстраполяцию вы в статье вообще не упоминаете, понятно, что это просто формальности
и мы можем изменить границы аппроксимирумой области, но все-равно глаз режет...

0

3

2 Egg

обсудить можно теорию, обсудить можно с практической точки зрения
готов и к тому и к другому

1. С теоретической точки зрения преимущество метода в том, что он выводится. В начале статьи есть набор теоретических положений. Если с ними согласиться, то в этом случае метод будет лучшим из возможных, просто потому что он из этих положений выведен. Если с положениями частично не согласиться, это тоже не значит что метод нельзя будет успешно использовать, но уже нельзя будет полагать что он в данном случае будет давать оптимальный результат. Допущения в статье сводятся к тому, что мы предполагаем, что допустимо использовать представления случайных функций (2) или (3) (а затем переходим к (20)), а также выполнение свойств (17) - (19), которые сводятся к тому, что результаты не должны зависеть от преобразования систем отсчета.

Прямого сравнения с другими алгоритмами в данной статье не приводилось, хотя такие тесты есть. Можно провести сравнение с дургими методами на некотором наборе тестовых задач, но думаю можно сделать лучше. В общении с собеседниками уже успел заметить замечание, что обычно говорят - что то что рассматривается, возможно так и есть, но это исключительный частный случай. Я с этим не согласен. Уверен, что можно теоретически доказать преимущество данного метода при решении широкого класса задач по сравнению с другими аналогами, собираюсь в будущем подготовить специальную статью на эту тему.

2. Кластеризация в данном случае просто рассматривалась как частный случай регрессии. Набор входных данных - координаты на плоскости. Количество выходов равно количеству классов. В данном случае 2 или 3. Например пусть будет 3 класса: тогда если элемент выборки принадлежит классу 1 то будем считать что первая выходная переменная равна 1, остальные две 0, если принадлежность второму классу - то вторая выходная переменная равно 1 а остальные 0 и т.д. Вобщем-то это выражается в виде выходнных веторов. Затем интерполяция (или аппроксимация). С тремя классами удобно использовать цветовое представление RGB.

3. Варианты применения примерно те же, где пытаются использовать алгоритмы искусственных нейронных сетей (обучения с учителем). Но по сравнению с ними есть преимущества: простота программной реализации, топологию выбирать не нужно, алгоритм точный (не итеративный) с гарантированным получением результата (известным конечным временем вычислений), ожидание оптимальности результата, если мы согласны допустить выполнение теоретических положений из которых метод выведен. Кроме того есть собственные плюсы: если заранее известен уровень шума в данных или его распределение в признаковом пространстве - это можно прямо задать, и будет выполнена аппроксимация с его учетом. Есть возможность не только рассчитать результат интерполяции или аппроксимации но и оценить возможную ожидаемую ошибку (насколько можно доверять возвращаемому методом ответу при обработке конкретных входных данных) в любой интересующей точке пространства.

4. На Рис.25 - это не результат интерполяции/экстраполяции. Это демонстрация анализа временного ряда. Предложенный метод - это ведь просто математическая конструкция, но ведь результат зависит не только от самой математики но и от того каким образом представить решаемую задачу. В данном случае берется временной ряд, но мы его не интерполируем а попытаемся сделать прогноз его следующего значения. Для этого составляем обучающую выборку, когда берется n предыдущих значений на входе, а на выходе берем n+1 по счету значение. Делаем интерполяцию или аппроксимацию в этом n - мерном пространстве. А затем решаем задачу прогноза: берем n предыдущих значений - прогнозируем n+1, затем берем n новых значений включая уже найденное и прогнозируем следующее и т.д.

0

4

xolod написал(а):

обсудить можно теорию

наверное, не со мной... образования у меня хватит, а вот мужества,
чтобы попробовать разобраться с построением - нет... давайте обсуждать практику... :)

xolod написал(а):

Уверен, что можно теоретически доказать преимущество данного метода при решении широкого класса задач по сравнению с другими аналогами

звучит так, как будто мы на съезде самой главной партии... :)
давайте сделаем шаг назад и зададимся таким вопросом:
наши данные имеют какую-то природу?
например, функция, которая стоит за явлением, может быть и не гладкой...
это может быть какая-то модуляция... пила...
почему, собственно, ваш универсальный метод должен работать лучше какой-то интерполяции,
которая будет учитывать природу исходной зависимости?

xolod написал(а):

Кластеризация в данном случае просто рассматривалась как частный случай регрессии.

можем поговорить об этом, но я с такой формулировкой не согласен...
конечно, можно использовать коэффициенты корреляции в качестве метрики для кластеризации,
но кластеризацию-то все-равно придется как-то обсчитывать отдельно...

xolod написал(а):

но мы его не интерполируем а попытаемся сделать прогноз его следующего значения.

видимо, я просто не понимаю тонкостей...
для меня это звучит примерно так:
но мы его есть не стали, мы только положили в рот, разжевали и проглотили...

как-то у меня целостной картинки пока не складывается...
ну интерполяция... интерполяцию можно применять в громадном количестве задач...
но я всегда считал ровно наоборот: имеем задачу, делаем предположение о природе данных,
ищем наиболее удобную интерполяцию...
но вот "позволяет получать точные решения задач машинного обучения" - как вы пишите - это малопонятно...

0

5

Судя по сложным формулам xolod математик и возможно задача была прямо вот так, вообще ни о чем. Просто Многомерная интерполяция и аппроксимакция

Мне например про картинки интересно. Картинка это множество 5-мерных точек (x,y,r,g,b). Если выполнить Многомерная интерполяция и аппроксимакция , а потом рисовать картинку по случайным функциям, из каких фигур будут состоять картинки - квадраты, треугольники, круги, градиенты, волны, шум ... что? Сколько нужно килобайт коэффициентов чтобы выполнить Многомерная интерполяция и аппроксимакция для средней фотографии 2000*2000 точек с качеством, чтобы всех этих фигур не было заметно? Как долго будет выполняться Многомерная интерполяция и аппроксимакция для 4000000 5-мерных точек?

0

6

2 Egg

Egg написал(а):

например, функция, которая стоит за явлением, может быть и не гладкой...
это может быть какая-то модуляция... пила...

да, конечно, если мы знаем априорно информацию о явлении которое стоит за функцией - то можем создать специальный метод использующий эту информацию. и это будет самыу лучший вариант.

В каких случаях будет "лучшим" предложенный метод? Когда мы можем допустить что искомую функцию можно считать реализацией случайной функции вида (2)-(3) а также набор предположений (17)-(19). Что это значит? Значит, функцию с большей амплитудой мы ожидаем меньше чем с меньшей амплитудой, причем имеем нормальный закон зависящий от амплитуды. Это значит что мы априорно не знаем в каких единицах измерения работаем - (т.е. меряется ли температура в цельсиях или кельвинах, результаты не должны зависеть от сдвига системы отсчета), также накладывается равновероятность функций преобразующихся друг в друга поворотом в многомерном пространстве или одинаковым изменением масштаба по всем осям. Если мы допускаем такой набор положений - то вот и получаем предложенный метод.

То что предложено это просто математическая конструкция. Очень многое зависит от того как сформулировать задачу.

Egg написал(а):

можем поговорить об этом, но я с такой формулировкой не согласен...
конечно, можно использовать коэффициенты корреляции в качестве метрики для кластеризации,
но кластеризацию-то все-равно придется как-то обсчитывать отдельно...

подождите, еще раз посмотрите что я написал про кластеризацию выше, а теперь поставьте на выходе поиск максимального значения среди выходов - где максимум к тому классу и относим. (но гораздо интереснее тут можно использовать нечеткую логику)

Egg написал(а):

для меня это звучит примерно так:
но мы его есть не стали, мы только положили в рот, разжевали и проглотили...

исходно мы рассматриваем интерполяцию когда все направления в пространстве равнозначны.
А тут мы рассматриваем временной ряд. Соотвсетсвенно считаем что одна из осей - это время! А также считаем чтоследующее значение временного ряда определяется, например, набором 10-ти предыдущих значений. Это очень важные свойства, если мы просто делаем одномерную интерполяцию - мы их игнорируем. Чтобы их учесть мы переходим в 10-мерное пространство интерполяции (раз по 10-ти предыдущим значениям). А потом делаем прогноз на шаг вперед, потом еще на одина шаг и т.д.

2 NO

Интерполяция в данном случае будет по двумерным точкам - но возвращать она будет 3-мерный вектор. Но я думаю Вы спрашивали не об этом. Вы хотите чтобы я Вам интерполировал фотографию 2000х2000 точек? o.O
Предложенный метод не предназначен для интерполирования фотографий. Метод может быть использован, например, для их распознавания.

0

7

xolod написал(а):

Вы хотите чтобы я Вам интерполировал фотографию 2000х2000 точек? ... Метод может быть использован, например, для их распознавания.

Как-то не сходится, с одной стороны проблемы с одной фотографией, с другой можно распознавать среди многих. Итак вопросы остались без ответа, так Вы еще сильнее все запутываете.

0

8

NO написал(а):

Как-то не сходится, с одной стороны проблемы с одной фотографией, с другой можно распознавать среди многих. Итак вопросы остались без ответа, так Вы еще сильнее все запутываете.

Чтобы запомнить фотографию, ее не надо интерполировать, можно просто запомнить значения пикселей. Существуют методы сжатия изображения. А интерполяция может понадобится если хочется узнать значения между пикселями или когда небольшая часть пикселей неизвестна а надо их восполнить.
А для распознавания может использоваться связка - выделение объекта на изображении - вычисление признаков объекта - классификация в признаковом пространстве.

0

9

Это все я знаю, не надо меня учить.
Давайте еще раз.
Вот есть сжатие jpeg, оно при сжатии аппроксимирует картинку колебаниями, а при расжатии интерполирует значения пикселей которые были успешно аппроксимированы и потом выброшены за ненадобностью.
1. Если в картинке чередуются линии то jpeg запомнит цвет и период. Там колебания это базовые фигуры метода, из которых строится изображение. Не понадобится делать 5 прямоугольников чтобы аппроксимировать 5 линий. Ваш метод использует какие базовые элементы, из которых потом все складывается?
2. Когда есть модель изображения она занимает меньше места чем исходное изображение. Это называется сжатием. Когда картинка расжимается выполняется интерполяция согласно модели. У Вашего метода с этим как дела? В смысле чтобы получить картинку такого качества, что будет не заметно что она восстановлена по модели, а не запомнена значениями пикселей.
3. jpeg сжимает картинку 2000*2000 за секунду. Секунды - это на часах такие деления, они маленькие нужно смотреть внимательно. У Вашего метода как? Если я запущу аппроксимировать картинку, то сколько этих делений пройдет секундная стрелка прежде чем аппроксимация будет точно и гарантированно завершена?

0

10

NO написал(а):

Давайте еще раз.

То, что Вы называете базовым элементом у меня в статье будет функция (104).
Но мне кажется, у нас возникает непонимание, потому что я пытаюсь непосредственно ответить на Ваши вопросы.

Мне кажется, я понимаю к чему Вы клоните. Принцип минимальной длины описания?
Предполагаю (но конечно не утверждаю), что Вы можете рассуждать таким образом:
Вас смущает, что у меня количество слагаемых равно количеству обучающих примеров. А если Вы мне дадите фотографию - то чтобы ее качественно воспроизвести моим методом то понадобится огромное количество таких примеров. И время обучения будет равно очень большому количеству маленьких делений на часах.
Если один метод может выделить на изображении какие-то фигуры и оптимальным и коротким образом их описать, следовательно он обладает лучшей обобщающей способностью.

Попробую ответить Вам на Вашем языке.
Пусть у нас есть два разных изображения, одно из них более коротким образом представляет один метод, а другое - другой метод. Как решить какой метод лучший?
Возможно если Вы мне дадите фотографию, на которой изображен лес, цветы, закат солнца, то целиком интерполировать ее с хорошим качеством моим методом будет практически невозможно. Но почему Вы считаете что интерполировать закат солнца - это то что нам нужно в машинном обучении? Зато картинки вида Рис.24 или Рис.23 предложенный метод может интерполировать молниеносно в разрешении хоть 20000*20000 и сохранять их в виде нескольких десятков байт. Мало того, возьмем не картинку а 100-мерное пространство. И выполним там интерполяцию с какой-нибудь резкой многомерной нелинейностью. Тогда наоборот, данному методу понадобится секунда, а аналог алгоритма jpeg, будет раскладывать эту функцию в многомерное разложение фурье вплоть до окончания жизни вселенной.

Хочу добавить еще следующее.
Получить минимальную длину описания не является целью данного метода. Одну и ту же модель можно описать разными способами. Разными языками. Разными форматами. Длина описания напрямую зависит от способа кодирования. Например мы кодируем символы и выбран код Хаффмана(оптимальная система) - тогда у более часто встречающихся символов (более вероятных) будет более короткое кодирование. Но если у нас другая система кодирования - то ситуация будет иная. Но система оптимального кодирования напрямую связана с заданием априорного заданного распределения вероятностей. Предложенный метод изначально ищет наиболее вероятную реализацию т.е. ту которая будет иметь более короткое описание при условии импользования оптимального кодирования. Но оптимального кодирования не используется поэтому количество коэффициентов всегда равно количеству уравнений. (Кстати вы сейчас натолкнули меня на интересную мысль, над которой надо будет подумать).

0

11

xolod написал(а):

а теперь поставьте на выходе поиск максимального значения среди выходов - где максимум к тому классу и относим.

я примерно об этом же и говорил, кластеризация у вас осталась,
просто вы (не очень понятно по какой причине) решили, что она может быть вырождена до тривиальной...

мне вообще все больше и больше кажется, что за вашими построениями "скрывается" одна единственная вещь -
решение системы линейных уравнений таким экзатическим способом - с помощью случайных функций...
во всяком случае, то как вы применяете вашу "интерполяцию" сбивает с толку, поскольку все эти задачи
выходят за рамки интерполяции и вообще почти никак к ней не относятся...

0

12

Я так и не получил ответов, зато узнал куда клоню и что меня смущает.

Одни ощущения. Что модель строится из кружочков. И что вся наука после 15 века просто заторможенная реация на католическую инквизицию, без которой наука опять загнется.

0

13

Egg написал(а):

во всяком случае, то как вы применяете вашу "интерполяцию" сбивает с толку, поскольку все эти задачи
выходят за рамки интерполяции и вообще почти никак к ней не относятся...

если выходят за рамки интерполяции можно применить аппроксимацию? при предложенном подходе это частные случаи одного решения

Egg написал(а):

мне вообще все больше и больше кажется, что за вашими построениями "скрывается" одна единственная вещь -
решение системы линейных уравнений таким экзатическим способом - с помощью случайных функций...

Да. Именно. Метод заключается в том что надо просто решить систему линейных уравнений. Но необходимо знать особую функцию, которая и была получена в представленной статье, при исопльзовании которой мы и можем все сводить к обычной системе линейных уравнений. Метод сам по себе, если не рассматривать теорию как он был выведен, очень прост.

В начале статьи есть раздел 'Содержание' из которого можно сразу перейти к разделу 'Метод машинного обучения'. В этом разделе содержатся все ключевые выражения для практического использования предложенного метода (в этом разделе ничего не доказывается, но все описано так, чтобы как можно быстрее изучить метод и применить его на практике). Можно полностью разобраться в его алгоритме менее чем за час.

Egg, Вы же сами писали в разделе Тематические обсуждения/Нейросети - ваше отношение? о нейронных сетях:

Egg написал(а):

1. вы никогда не знаете какую архитектуру применить для той или иной задачи или подзадачи...
2. вы никогда не знаете сколько времени займет обучение или переобучение...
3. вы никогда не имеете никаких гарантий ни по выходу, ни по изменению входа...
4. ваша сеть насыщается быстро и навсегда...
5. ваша работа с сетью никогда не отличается от матричной алгебры, просто оборачивание матрицы в ИНС
происходит непонятным для вас (и для ИНС) образом...
6. если вам надо расширить классы, вам нужно начинать все сначала
7. ваша ИНС всегда неустойчива и вы не знаете областей в который незначительные изменения приводят к нелинейности выхода
8. ваша сеть не ведает представления об ошибки, она всегда отвечает уверенно, даже, если ошибается
9. ваша работа с сетью всегда похожа на потерянное время

в целом, работа с ИНС напоминает пляску шамана...

то что я предлагаю - решение раз и на всегда всех 9-ти пунктов
Кроме того, предлагаемый подход, по сравнению с ИНС имеет гораздо лучшее теоретическое обоснование.

NO написал(а):

Я так и не получил ответов, зато узнал куда клоню и что меня смущает.

Одни ощущения. Что модель строится из кружочков. И что вся наука после 15 века просто заторможенная реация на католическую инквизицию, без которой наука опять загнется.

Я просто попытался понять что Вы имеете в виду задавая все эти вопросы. Наверно я не понял и сделал глупое предположение. Тогда прошу прощения.

0

14

Продолжаем разговор :)

1. Создает ли оно свои размерности?
Например есть видео, 25 кадров в секунду. Нужно сделать 100. Если на картинке что-то движется хороший анализ выделит этот объект в отдельную область, положение которой среди других данных обычная величина, которая легко интерполируется. Ваш метод что нарисует в промежуточных кадрах? Если не делать никакой адаптации под видео, то есть метод как он есть.
2. Скорость таки какая, да? Хоть примерно. Вы там заявили что все сходится и гарантированно. У меня есть подозрение что это может слишком дорого стоить. Вы вообще какие задачи предполагали, "много раз по-немногу" или "мало раз по-многу"?

0

15

2 NO

Скорость обучения зависит от:
- от размерности пространства (менее чем линейно)
- от количества обучающих примеров (примерно зависимость кубическая - поскольку требуется решить систему линейных уравнений)
- от количества выходов ((менее чем линейно)
закон меняется в зависимости от длины выборки, например выборка если маленькая -десятки примеров - то основное время займет даже не решение системы уравнений а вычисление логарифмов

Скорость обработки новых данных зависит от:
- количества примеров при обучении (линейно)
- размерности входа/выхода (линейно)

при больших выборках основное время уйдет на решение системы уравнений
для справки:

у меня компьютер Celeron 2.8 Ггц(достаточно устаревший на данный момент)

Matlab решает систему из 1000 линейных уравнений за 0.4 секунды (можно еще ускорить в пару раз, если использовать свойство симметричности матрицы для нашего случая используя разложение Холецкого)
т.е. если мы будем обучать для 1000 обучающих примеров - то за 0.5 секунды можем справиться.

Систему из 100 уравнений Matlab решает за 0.0013 сек.
Систему из 2000 уравнений Matlab решает за 2.7 секунды (т.е. зависимость примерно кубическая)
т.е. можете сами считать
с выборками более 10000 примеров работать уже нереально.

Но это если использовать метод "в лоб".
Я проводил специальные эксперименты по оптимизации. Но это еще пока эксперименты, поэтому ничего точно утверждать не могу, но мне удавалось работать с выборками в десятки и сотни тысяч примеров.

если же говорить о скорость обрабоки - то там никаких решений уравнений не требуется, работает быстро

На счет получения промежуточных кадров.  Теоретически если интерполировать весь трехмерный массив кадров, двигающийся объект на новых кадрах будет там где и должен находится в соответствии со своей скоростью. Но проблема в длине обучающей выборки. Но если разбить изображение на небольшие подучастки и интерполировать каждый поотдельности - то я думаю создать систему преобразования мз 25 в 100 кадров реально.

Отредактировано xolod (2009-09-09 11:20:46)

0

16

Спасибо, так понятнее.
n^3 это хорошо, но всё же далеко не 2^n :)

Если ли там ценность параметров, чтобы из модели выделить самые полезные функции? По такой информации можно подгонять распределение случайностей и моделировать сильно не однородные данные.

0

17

NO написал(а):

Если ли там ценность параметров, чтобы из модели выделить самые полезные функции? По такой информации можно подгонять распределение случайностей и моделировать сильно не однородные данные.

Не совсем понял вопрос, можно его сформулировать детальнее?

0

18

Не очень понял насчет автокорреляционной функции. Судя по всему пределы 57 и 58 стремиться к бесконечности. Это вызывает подозрения. Как вообще можно численно решать СЛАУ если коэффициенты матрицы стремяться к бесконечности?

0

19

Можно подставить пределы непосредственно в систему уравнений и решить символически. Это очень тяжело сделать, но для самых простых случаев ради эксперимента я это пробовал. В полученном выражении (60) полученные пределы сойдутся (вобщем то это следует из самой системы уравнений). Но это имеет лишь теоретическое значение.

Численное решение. Посмотрите на w0 в (57) и на него же в (52). Оно играет роль ограничения на нижние частоты. Соответственно, если мы не достигнем предела, но возьмем w0 очень близкое к нулю - то соответственно в (60) мы получим решение у которого будут обрезаны частоты близкие к нулю, по сравнению с "идеальным" случаем. Если период этих частот на порядки больше чем область интерполяции, можно ожидать что в области интерполяции мы не заметим разницы. Но по этому вопросу можно провести еще дополнительные исследования. Практика использования метода полностью подтверждает ты выводы которые я сейчас сделал.

PS: то что Вы дошли до формул (57) и (58) и задали вопрос, говорит о том что Вы пытались вникнуть в суть метода... можете сказать пару слов о себе?

0

20

Лично я не вижу тут вообще никакого обучения. Все сделали Вы сами. Как если бы вместо обучения кота стоять на задних лапах, сделать из него такое чучело. Оно конечно теперь стоит как надо, но дрессирабельного кота там теперь еще меньше чем было.

Сделайте чтобы комп писал такие статьи, Вы же интеллектом считаете это, а не как веревочка тянется к крестикам.

Отредактировано NO (2010-02-12 11:16:24)

0

21

ну почему чучело? обучение не в том, что компьютер запомнит значения в узлах - а в том, что он сможет выдать ответ (вывести закономерность), чему равна функция в точках о которых ему не сообщали.

0

22

А эта статья явилась интерполяцией между какими статьями?

0

23

NO! Погодите, не спешите, я Вас чаем угощу...
Вы слишком торопитесь. Тема обсуждения: многомерная интерполяция. То, что был создан искусственный интелллект нигде не написано и на это никто не претендует! Все что есть - это многомерная интерполяция и аппроксимация. Это всего лишь возможность автоматического построения моделей статических систем по данным наблюдения. Да, эту математику можно использовать для создания обучающихся, самообучающихся и т.д. алгоритмов, машин.. но в довольно примитивном! виде, хотя иметь и такой вариант для многих задач было бы хорошо.

0

24

Надо добавить оценки ценности/значимости величин, на порядки снизить объем вычислений. Приходим к обычной проблеме гипотез и их перспективности.
Еще один нюанс, что зерно ГСЧ обычно 32 бит, это просто слишком мало если из него получается килобайты коэффициентов, их сложность тогда тоже в районе всего лишь 32 бит. А найти нужные 32 бита информации наверно можно и побыстрее.

0

25

Не очень хорошо я разбираюсь в такой непростой математике, но по проблематике мне совершенно ясно две вещи: NO прав, когда говорит о том, что интерполяция никак не приближает нас к пониманию того, что реальной интеллектуальной задачей является создание гипотез и их оценка, по моему скромному мнению, ошибается он в том, что считает эту задачу математической. В том-то всё и дело, что где бы мы не провели границу между математической постановкой задачи и интеллектом, математика останется по другую от него сторону. :)

0

26

fuzzy_man написал(а):

ошибается он в том, что считает эту задачу математической

да, "считаю" :)

Отредактировано NO (2010-02-16 00:56:58)

0

27

Я понял что такое экстраполяция. Только не смеяться.
Это выход за границы. Я понимаю вам очевидно. А я понял.
Теперь мне понятно и что такое прогнозирование.
И почему ретроспективный прогноз тяжелее строить.
Egg часто пишет: моделирование плюс прогноз. А это на самом деле одно и тоже. :)
И прогнозом не исчерпывается.

Отредактировано Орлов (2010-03-15 23:47:52)

0


Вы здесь » Искусственный Интеллект » Макеты и реализации » Многомерная интерполяция и аппроксимация


Создать форум.