SNN-w02.pdf

(181 KB) Pobierz
Sieci Neuronowe
Wykład 2
Liniowe Sieci Neuronowe
wykład przygotowany na podstawie.
R. Tadeusiewicz, “Sieci Neuronowe”, Rozdz. 3. Akademicka Oficyna Wydawnicza RM,
Warszawa 1993.
Sieci Liniowe
Sieci liniowe, znane w literaturze pod nazwami
ADALINE
i
MADALINE
są najprostsze w budowie, a równocześnie są w wielu wypadkach
wysoce uŜyteczne.
Neurony
Elementy z których buduje się sieci, charakteryzują się
występowaniem wielu wejść i jednego wyjścia.
Sygnały wejściowe
x
i
(i=1, 2, .....n) oraz sygnał wyjściowy
y
mogą
przyjmować wartości z pewnego ograniczonego przedziału.
Z dokładnością do prostej funkcji skalującej moŜna przyjąć,
Ŝe
x
i
[-1, 1]
dla kaŜdego i, a takŜe
y
[-1, 1]
ZaleŜność
y = f( x
1
, x
2
, ....., x
n
)
n
Σ
w najprostszym przypadku moŜe być rozwaŜana jako liniowa
y =
i=1
ω
i
x
i
2
Sieci Liniowe
Element opisany powyŜszym równaniem liniowym jest między
innymi zdolny do
rozpoznawania wejściowych sygnałów.
Sygnały wejściowe
Sygnał wyjściowy
x
1
x
2
...
x
n
Zmienne
Parametry
ω
i
y
Współczynniki
ω
i
, nazywane
wagami synaptycznymi,
podlegają
modyfikacjom w trakcie
procesu uczenia,
który stanowi jeden z
zasadniczych wyróŜników sieci neuronowych jako adaptacyjnych
systemów przetwarzania informacji.
3
Sieci Liniowe
Niech zestaw sygnałów
wejściowych neutronu
x
1
x
2
stanowi wektor
x
1
x
2
.
.
x
n
ω
1
ω
2
ω
n
Σ
Próg
Θ
e
ϕ
y
x=
x
n
Wektor ten moŜna interpretować jako punkt w
n-wymiarowej
przestrzeni
X,
nazywanej przestrzenią wejść. Wektor ten moŜemy teŜ
zapisać jako
X = < x
1
, x
2
, ....., x
n
>
T
Zestaw
n
współczynników wagowych moŜemy równieŜ rozpatrywać
jako wektor
W = <
ω
1
,
ω
2
, ....,
ω
n
>
T
wyznaczający punkt w
n-wymiarowej
przestrzeni zwanej przestrzenią
wag:
y=W
X
(iloczyn skalarny)
4
Sieci Liniowe
Rozpoznawanie sygnału:
Z własności iloczynu skalarnego, moŜna powiedzieć,
Ŝe
wartość y
będzie tym większa im bardziej połoŜenie wektora
X
będzie
przypominać połoŜenie wektora wag.
JeŜeli załoŜymy,
Ŝe
wektory
X, W
są znormalizowane do 1, to
wówczas
y = cos(φ)
gdzie
φ
jest katem pomiędzy wektorem
X
i
W.
JeŜeli na wejście neuronu będziemy podawali róŜne sygnały,
X,
to
sygnał na wyjściu neuronu będzie miał tym większą wartość, im
bardziej podany sygnał
X
będzie podobny do sygnału wzorcowego,
który neuron
“pamięta”
w postaci swojego zestawu wag
W.
5
Zgłoś jeśli naruszono regulamin