Abstract

Многие задачи интеллектуального анализа данных могут быть сведены к задачам классификации и регрессии, современные подходы к решению которых основаны на применении нейронных сетей, деревьев решений и нечеткой логики, а также классических статистических методов. Решение сложных практических задач состоит из нескольких этапов, таких как выявление и отбор признаков, снижение размерности исходного пространства, поиск взаимосвязей и построение математической модели.В данной работе рассматривается задача снижения размерности данных при построении нечеткой нейронной сети с целью сокращения количества исходных признаков и повышения их информативности. Для ее решения рассмотрены несколько подходов: применение метода главных компонент, нейронной сети с архитектурой автокодировщика и ограниченной машины Больцмана. В отличие от метода главных компонент, применение автокодировщика и ограниченной машины Больцмана позволяет учесть нелинейные связи между имеющимися признаками. Важной особенностью предлагаемой в работе нечеткой нейронной сети, основанной на нечетких деревьях решений, является наглядность представления закономерностей в системе данных в виде логических правил с оценкой важности каждого правила. Применение представленных методов снижения размерности входных данных позволило существенно снизить погрешность аппроксимации. По результатам тестирования лучшей способностью обобщать данные среди рассмотренных методов обладает ограниченная машина Больцмана: ее применение для построения правил в нечеткой нейронной сети снижает погрешность аппроксимации в несколько раз по сравнению с методом главных компонент. Полученные в работе результаты могут быть использованы для построения универсальных нечетких аппроксиматоров при решении задач машинного обучения и анализа данных.

Highlights

  • «Нечеткость» дала моделям большие способности к обобщению и обучению, появилась возможность строить более компактные модели, но проблема снижения размерности и повышения информативности исходных данных осталась

  • В. Обучение нечетких нейронных сетей генетическим алгоритмом // Интеллектуальные системы в производстве

Read more

Summary

Ar i

Операция конъюнкции в левой части правил определяется алгебраическим произведением функций принадлежности. Положительной стороной нечеткой сети подобного типа является наглядность представления закономерностей в системе данных в виде логических правил с оценкой важности каждого правила. Для подбора параметров деревьев решений ( N min ,q,K y ,β) , где N min − минимальный размер разделяемого множества; q − количество пороговых значений vik для переменных z ; Ky – количество классов для выходного значения функции; β − параметр функции принадлежности, применялся гибридный генетический алгоритм [15]. В таблице приведены параметры деревьев решений: N min , q , Ky ; K R0 − количество ветвей неупорядоченного дерева; K R − количество ветвей упорядоченного дерева (правил); δlearn , δtest − погрешности на обучающей выборке (900 точек) и тестовой (100 точек)

Без снижения
Библиографические ссылки
Convolutional Neural Networks for Image
Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call