Лабораторная работа №3 Сеть Кохонена, самоорганизующаяся нейронная сеть



Pdf просмотр
Дата17.02.2017
Размер0.55 Mb.
Просмотров186
Скачиваний0
ТипЛабораторная работа

НС
4 курс
2014-2015 1
Лабораторная работа № 3
Сеть Кохонена, самоорганизующаяся нейронная сеть
Цель работы: изучить функционирование и процедуру обучения сети
Кохонена с помощью функции newc.
I.

Краткие теоретические сведения
Сети Кохонена, или самоорганизующиеся карты (Kohonen maps), предназначены для решения задач автоматической классификации, когда обучающая последовательность образов отсутствует (обучение без учителя).
Сеть Кохонена является двухслойной. Она содержит слой входных нейронов и собственно слой Кохонена. Слой Кохонена может быть одномерным, двумерным и трехмерным. В первом случае нейроны расположены в цепочку; во втором – они образуют двумерную сетку (обычно в форме квадрата или прямоугольника), а в третьем – трехмерную систему. Определение весов нейронов слоя Кохонена основано на использовании алгоритмов автоматической классификации (кластеризации или самообучения).
На вход сети подаются последовательно значения векторов
l
n
l
x
x
x
)
,...,
,
(
2 1

x
, представляющих отдельные последовательные наборы данных для поиска кластеров, то есть различных классов образов, причем число этих кластеров заранее неизвестно. На стадии обучения (точнее самообучения) сети входной вектор x попарно сравнивается со всеми векторами
j
w всех нейронов сети Кохонена. Вводится некоторая функция близости d (например, в виде евклидова расстояния). Активный нейрон с номером c слоя Кохонена, для которого значение функции близости
)
,
(
c
d
w
x
между входным вектором x , характеризующим некоторый образ, к векторам
c
w
максимально, объявляется
«победителем».
При этом образ, характеризующийся вектором x , будет отнесен к классу, который представляется нейроном-«победителем».
Рассмотрим алгоритм самообучения сетей Кохонена. Обозначим функцию близости
w
x


z
. Выигрывает нейрон c
j
c
w
x
w
x



min
(1)
Близость
x

и
w

можно переделить, пользуясь скалярным произведением, как









n
i
ij
i
j
j
w
x
z
1 1
)
,
(
1
w
x
(3)
На стадии самообучения сети Кохонена осуществляется коррекция весового вектора не только нейрона-«победителя», но и весовых векторов

НС
4 курс
2014-2015 2 остальных активных нейронов слоя Кохонена, однако, естественно, в значительно меньшей степени – в зависимости от удаления от нейрона-
«победителя». При этом форма и величина окрестности вокруг нейрона-
«победителя», весовые коэффициенты нейронов которой также корректируются, в процессе обучения изменяются. Сначала начинают с очень большой области – она, в частности, может включать все нейроны слоя
Кохонена. Изменение весовых векторов осуществляется по правилу
)]
(
)
(
)[
(
)
(
)
(
)
1
(
t
t
t
d
t
t
t
j
cj
j
j
w
x
w
w





, j=1,2,…, n,.
(3) где
)
(t
j
w
- значение весового вектора на шаге t самообучения сети,
)
(t
d
cj
- функция близости между нейронами слоя Кохонена и
)
(t

- изменяемый во времени коэффициент шага коррекции. В качестве
)
(t

обычно выбирается монотонно убывающая функция (0<
)
(t

<1), то есть алгоритм самообучения начинается сравнительно большими шагами адаптации и заканчивается относительно малыми изменениями.
В результате n-мерное входное пространство
n
R отобразится на m-мерную сетку (слой Кохонена). Это отображение реализуется в результате рекуррентной (итеративной) процедуры самообучения (unsupervised learning).
Отличительная особенность этого отображения – формирование кластеров
(clusters) или классов. По завершении процесса самообучения на стадии реального использования сети Кохонена неизвестные входные образы относятся к одному из выявленных кластеров (классов) по близости к некоторому весу, принадлежащему определенному кластеру, выявленному на стадии самообучения.
На рис. 1 показана архитектура слоя Кохонена.
Рис. 1 Схема архитектуры слоя Кохонена
Пример.

НС
4 курс
2014-2015 3
Пусть заданы 28 случайных векторов, изображённых на графике крестами
(рис. 2). Оцифровав данный график, можно получить массив входных данных
:)
,
2
(
:),
,
1
(
P
P
(табл. 1).
Рис. 2 Распределение входных векторов
Таблица 1
Массив входных данных
P(1,:) 3.0 -0.1 4.3 4.6 8.5 1.8 8.3 2.5 0.2 4.6
P(2,:) 1.0 3.7 4.4 2.3 2.7 3.3 -0.1 1.2 3.6 4.7
P(1,:) 4.5 8.5 2.2 8.2 2.7 0.2 4.4 4.6 8.3 2.0
P(2,:) 2.3 2.9 3.2 0.1 0.8 4.0 4.5 2.2 2.4 3.3
P(1,:) 8.5 2.7 0.1 4.3 4.7 8.5 2.1 8.3
P(2,:) 0.0 0.9 4.0 4.4 1.9 2.5 3.5 -0.3
Следующий алгоритм демонстрирует процедуру обучения самоорганизующейся нейронной сети Кохонена.
plot(P(1,:), P(2,:), '+m');
title('Input vectors');
xlabel('P(1,:)');
ylabel('P(2,:)');
hold on;
nclusters = 7;
nvectors = 4;
a1 = -10;
-1 1
3
-1 1
3 5
7
X
Y

НС
4 курс
2014-2015 4
a2 = +10;
b1 = -5;
b2 = +5;
net = newc([a1 a2; b1 b2], nclusters, 0.1, 0.0005);
wo = net.IW{1};
bo = net.b{1};
co = exp(1)./bo;
net.trainParam.epochs=49;
net.trainParam.show=7;
net = train(net,P);
w = net.IW{1};
bn = net.b{1};
cn = exp(1)./bn;
plot(w(:,1),w(:,2),'kp');
На рис. 3 представлены исходные данные (кресты) и полученные центры кластеризации (звёзды).
Рис. 3 Распределение входных данных (кресты) и положение центров кластеризации (звёзды)
II.
Порядок выполнения работы
1.
Изучить функции системы Matlab, которые позволяют работать с нейронными сетями Коханена.
2.
Построить самоорганизующуюся нейронную сеть, используя пример.

НС
4 курс
2014-2015 5
3.
.Построить НС Коханена для своего индивидуального задания.
4.
Обучить сеть.
5.
Построить рисунок с центрами кластеров.
6.
Поварьировать количество центров кластеров.
7.
Написать программный код.
8.
Провести сравнительный анализ полученных результатов.

III.

Форма отчета

Отчёт о выполнении лабораторной работы должен быть выполнен на листах формата А4 и содержать следующие результаты:
1.
Титульній лист
2.
Постановку задачи.
3.
Исходные данные в виде рисунка.
4.
Программный код с подробными комментариями.
5.
Результаты моделирования в виде рисунка.
6.
Краткое описание расположения центров кластеров.
7.
Список исходных точек с указанием принадлежности к определенному кластеру.
IV.

Индивидуальные задания
Вариант 1
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 5;
0, 9; 0, 7
X


;


4
,
1
;
4
,
0
;
1
,
1 3



X
;


5
,
0
;
3
,
1
;
1
,
0 4


X
;


2
,
0
;
4
,
1
;
8
,
0 5



X
;


6
,
0
;
2
,
0
;
3
,
0 6


X
;


7 0, 2; 1, 4;
0,8
X


;


8 1,1;
0, 4; 0, 9
X
 

;


9 0, 6;
1, 5;
0, 2
X


Начальное значение весов:














8
,
0 6
,
0 3
,
0 4
,
0 1
,
0 7
,
0 6
,
0 2
,
0 5
,
0
W
Норма обучения
5
,
0

k
. В качестве меры приближения принять расстояние между точками.
Вариант 2
Провести кластеризацию образцов на три кластера:


1 0,1; 0,3; 0, 4
X

;


2 0, 5;
1,1;
0, 7
X



;


3 0,1;
0, 5; 1, 2
X
 
;


4 0,5;
0, 4;
0,3
X



;


5 0, 5;
1,1;
0, 3
X
 


;


6 0, 3;
0, 3;
0, 3
X
 
;


7 0, 2; 1, 4;
0,8
X


;


8 1,1;
0, 4; 0, 9
X
 

;


9 1,1;
0, 4;
1, 4
X
 


НС
4 курс
2014-2015 6
Начальное значение весов:
0, 3 0, 2 0, 3 0,1 0,1 0, 2 0, 4 0, 3 0,1
W













Норма обучения k = 0,4. В качестве меры приближения принять расстояние между точками.
Вариант 3
Провести кластеризацию образцов на два кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 5;
0, 9;
0, 7
X


;


3 1,1;
0, 4;
1, 4
X
 

;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,1;
0,3; 0, 4
X


;


8 0, 3; 0, 3; 0, 3
X
 
;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения k = 0,5. В качестве меры приближения принять значение угла между векторами.
Вариант 4
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 1,1;
0, 4; 0, 9
X
 

;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов взять произвольным образом из интервала


0,3; 0,3

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение расстояния между точками.
Вариант 5
Провести кластеризацию образцов на три кластера:


1 0,8; 0,5;
0,3
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5;
0, 6;
1,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 1,1;
0, 4; 0, 9
X
 

Начальное значение весов:
0, 7 0, 2 0, 5 0, 7 0, 3 0, 4 0, 3 0, 6 0, 2
W














Норма обучения
0,3
k

. В качестве меры приближения принять значение расстояния между точками.

НС
4 курс
2014-2015 7



НС
4 курс
2014-2015 8
Вариант 6
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0,8;
1, 3;
0, 7
X


;


3 1, 2;
0, 5; 1, 3
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 9
X
 
;


7 0, 6;
0,8;
0,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение угла между векторами.
Вариант 7
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 5;
0, 9;
0, 7
X


;


3 1,1;
0, 4;
1, 4
X
 

;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,8;
0,5;
0,3
X


;


8 0,8;
1, 3; 0, 7
X


;


9 0, 2;
1, 0;
0, 4
X
 

Начальное значение весов:
0, 5 0, 2 0, 6 0, 7 0,1 0, 4 0, 3 0, 6 0,8
W














Норма обучения k = 0,5. В качестве меры приближения принять угол между векторами.
Вариант 8
Провести кластеризацию образцов на три кластера:


1 0,1; 0,3; 0, 4
X

;


2 0, 5;
1,1;
0, 7
X



;


3 0,1;
0, 5; 1, 2
X
 
;


4 0,5;
0, 4;
0,3
X



;


5 0, 5;
1,1;
0, 3
X
 


;


6 0, 3; 0, 3; 0, 3
X
 
;


7 0,1; 1,3;
0,5
X


;


8 0, 3;
0, 2;
0, 6
X
 
;


9 0, 5; 0,8; 1,1
X
 
Начальное значение весов:
0, 3 0, 2 0, 3 0,1 0,1 0, 2 0, 4 0, 3 0,1
W













Норма обучения k = 0,4. В качестве меры приближения принять расстояние между точками.
Вариант 9
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;

НС
4 курс
2014-2015 9


7 0,5;
0, 6;
1,3
X
 

;


8 0, 3;
0, 2;
0, 6
X
 
;


9 0, 2;
1, 0;
0, 4
X
 

Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение расстояния между точками.
Вариант 10
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1,1; 0,8; 1, 2
X
 
;


4 0, 7; 1, 2;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0,8;
1,3
X
 



8 0,5;
1,3;
0, 4
X



;


9 0, 9;
0,1;
0, 6
X
 

Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение угла между векторами.
Вариант 11
Провести кластеризацию образцов на три кластера:


1 0, 6;
0, 6;
0,8
X


;


2 0, 3;
1, 2;
0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0, 2; 1,3;
0,5
X


;


5 0,8;
1, 5; 0, 3
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0, 2;
1, 0;
0, 4
X
 

Начальное значение весов:
0, 7 0, 2 0, 5 0, 7 0, 3 0, 4 0, 3 0, 6 0, 2
W














Норма обучения
0,3
k

. В качестве меры приближения принять начение расстояния между точками.
Вариант 12
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0, 6; 0, 6;
0,8
X


Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение угла между векторами.
Вариант 13

НС
4 курс
2014-2015 10
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 5;
0, 7; 0, 7
X


;


3 1,1;
0, 4;
1, 4
X
 

;


4 0,1; 1, 2;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 4;
0, 6
X
 
;


7 0,3;
1,1; 0, 7
X




8 0, 6; 0, 6;
0,8
X




9 0, 6; 1, 0; 0, 7
X

Начальное значение весов:
0, 5 0, 2 0, 6 0, 7 0,1 0, 4 0, 3 0, 6 0,8
W














Норма обучения k = 0,5. В качестве меры приближения принять угол между векторами.
Вариант 14
Провести кластеризацию образцов на три кластера:


1 0,1; 0,3; 0, 4
X

;


2 0, 5;
1,1;
0, 7
X



;


3 0,1;
0, 5; 1, 2
X
 
;


4 0,5;
0, 4;
0,3
X



;


5 0, 5;
1,1;
0, 3
X
 


;


6 0, 3; 0, 3; 0, 3
X
 
;


7 0, 5; 0, 6;
1, 3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0, 2;
1, 0;
0, 4
X
 

Начальное значение весов:
0, 3 0, 2 0, 3 0,1 0,1 0, 2 0, 4 0, 3 0,1
W













Норма обучения k = 0,4. В качестве меры приближения принять расстояние между точками.
Вариант 15
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6;
0, 6;
0,8
X




9 0, 6; 1, 0;
0, 7
X

Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение расстояния между точками.
Вариант 16
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0, 6; 0, 6;
0,8
X



НС
4 курс
2014-2015 11
Начальное значение весов:
0, 7 0, 2 0, 5 0, 7 0, 3 0, 4 0, 3 0, 6 0, 2
W














Норма обучения
0,3
k

. В качестве меры приближения принять значение расстояния между точками.
Вариант 17
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов:
0, 7 0, 2 0, 5 0, 7 0, 3 0, 4 0, 3 0, 6 0, 2
W














Норма обучения
0,3
k

. В качестве меры приближения принять значение угла между векторами.
Вариант 18
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0,8; 1,1;
0, 5
X


;


9 0, 7;
1, 3; 0,1
X
 

Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение расстояния между точками.

Вариант 19
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 5;
0, 9;
0, 7
X


;


3 1,1;
0, 4;
1, 4
X
 

;


4 0,1; 1, 7;
0,5
X


;


5 0, 3;
1, 4;
0, 2
X
 

;


6 0, 4;
0, 4;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6; 1,1;
0, 7
X
 
;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов:
0, 5 0, 2 0, 6 0, 7 0,1 0, 4 0, 3 0, 6 0,8
W















НС
4 курс
2014-2015 12
Норма обучения k = 0,5. В качестве меры приближения принять угол между векторами.
Вариант 20
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 0, 6; 1, 0;
0, 7
X

;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов взять произвольным образом из интервала


0, 5;
0, 5

. Норма обучения
0, 4
k

. В качестве меры приближения принять значение угла между векторами.
Вариант 21
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 3;
1,1; 0, 7
X


;


3 1, 2; 0, 9; 1, 4
X
 
;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,5; 0, 6;
1,3
X
 

;


8 1,1;
0, 4; 0, 9
X
 

;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов:
0, 7 0, 2 0, 5 0, 7 0, 3 0, 4 0, 3 0, 6 0, 2
W














Норма обучения
0,3
k

. В качестве меры приближения принять значение расстояния между точками.

Вариант 22
Провести кластеризацию образцов на три кластера:


1 0,1; 0,3; 0, 4
X

;


2 0, 5;
1,1;
0, 7
X



;


3 0,1;
0, 5; 1, 2
X
 
;


4 0, 5;
0, 4;
0, 3
X



;


5 0, 5;
1,1;
0, 3
X
 


;


6 0, 3;
0, 3;
0, 3
X
 
;


7 0, 2; 1, 4;
0,8
X


;


8 1,1;
0, 4; 0, 9
X
 

;


9 1,1;
0, 4;
1, 4
X
 

Начальное значение весов:
0, 3 0, 4 0,1 0, 2 0,1 0, 2 0, 4 0, 3 0,1
W













Норма обучения k = 0,4. В качестве меры приближения принять расстояние между точками.
Вариант 23
Провести кластеризацию образцов на два кластера:

НС
4 курс
2014-2015 13


1 0, 6;
0, 6;
0, 4
X


;


2 0, 5;
0, 9;
0, 7
X


;


3 1,1;
0, 4;
1, 4
X
 

;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,1;
0,3; 0, 4
X


;


8 0, 3; 0, 3; 0, 3
X
 
;


9 0,1;
0, 5; 1, 2
X
 
Начальное значение весов взять произвольным образом из интервала


0, 3;
0, 3

. Норма обучения k = 0,5. В качестве меры приближения принять значение угла между векторами.
Вариант 24
Провести кластеризацию образцов на три кластера:


1 0, 7; 0, 6;
0, 4
X


;


2 0, 5;
0, 9; 0, 7
X


;


3 1,1;
0, 4;
1, 4
X
 

;


4 0,1; 1,3;
0,5
X


;


5 0,8;
1, 4;
0, 2
X
 

;


6 0, 3;
0, 2;
0, 6
X
 
;


7 0,8;
0,5;
0,3
X


;


8 0,8;
1, 3;
0, 7
X


;


9 0, 2;
1, 0;
0, 4
X
 

Начальное значение весов:
0, 5 0, 2 0, 6 0, 7 0,1 0, 4 0, 3 0, 6 0,8
W














Норма обучения k = 0,5. В качестве меры приближения принять расстояние между точками.
V.

Контрольные вопросы
1.
Основные определения и понятия самоорганизующихся НС.
2.
Задачи, которые решаются с помощью сетей Коханена.
3.
Понятие задачи классифиукации.
4.
Понятие задачи кластеризации.
5.
Стадии оучения НС.
6.
Входные ивыходные данные НС.
7.
Понятие кластера, нейрон-победитель.
8.
Процесс обучения НС Коханена.
9.
Средства Matlab, позволяющие обучать НС.
10.
Понятие функции активации, ее выбор.
11.
Функция близости, ее выбор.


Поделитесь с Вашими друзьями:


База данных защищена авторским правом ©nethash.ru 2017
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал