Egg написал(а):вы вообще не использовали данные из обучающей выборки?
Рисунки - использовали, а вот информацию о том, какая цифра изображена - нет. Разница между обучающей и тестовой выборками в том, что на обучающей выборке сеть выбирала/модифицировала кластеры, а на тестовой - только относила вектор к одному из кластеров, не изменяя их.
Сеть чем-то похожа на ассоциативную память, но есть существенное отличие: с помощью некоторого ядра (выбор ядра - отдельная задача) проводится свертка входного образа со всеми запомненными, и этот вектор "степеней подобия" (условно) попадает в что-то вроде обычной ассоциативной памяти, на один такт. Потом результат разворачивается обратно, в исходное пространство (как сумма степеней принадлежности к каждому из запомненных образов, умноженной на запомненный вектор). И результирующий вектор идет обратно на вход сети, до тех пор, пока на выходе получается что-то, что заметно отличается от входа. Честно говоря, затрудняюсь сейчас объяснить понятнее, если будут более определенные вопросы - попробую дать вразумительные ответы.
Из важных свойств сети:
- мы знаем, насколько образ на входе похож на то, что мы уже запомнили - соответственно, если совсем отличается, то можно выделить под него новый класс.
- если у нас есть 2 похожих образа, то мы можем запомнить нечто среднее между ними (или модифицировать запомненный в сторону нового), это собственно основная ценность такой модели, тут это свойство базируется на использовании свертки с ядром (там довольно сложная математика, на пальцах ее не объяснить, скорее всего смогу дать статью, если коллега не будет против, что маловероятно).