A csomag statisztikai neurális hálózatokkal - stadopedia

Az adatok felfedezése után az ST Neural Networks automatikus felépítési funkciót (az Intelligens Problémamegoldó ablakot) kínál. Ebben a szakaszban meg kell szakítani ezt a funkciót (Mégse).







Amikor megnyit egy új fájlt az ST Neurális hálózatokban, akkor minden változót bevitelnek kell tekinteni. Meg kell adnia a kimeneti változókat. Kattintson a jobb gombbal a mezőre az Adatkészlet-szerkesztő ablak kimeneti változóinak nevével. A létrehozott kontextus menüben válassza a Kimenet, az oszlopfej színének színe kékre változik.

Minden megfigyelést két csoportra kell bontani: az NA oktatása és az ellenőrzés (a képzés előrehaladásának értékeléséhez szükséges képzés).

Az Adatkészlet-szerkesztő Cases ablakának második mezőjében adja meg a vezérlő készlet méretét (általában a teljes adatkészlet fele hozzá van rendelve), nyomja meg az Enter billentyűt. Az ellenőrző megfigyeléseket tartalmazó vonalak piros színűek (a megfigyelések listájának végén szerepelnek). Ezután a Shuffle parancs (Edit → Cases → Shuffle → Train and Verify) minden megfigyelést véletlenszerűen különböző típusú típusokba osztanak.

A létrehozott paraméterekkel és struktúrával rendelkező hálózat létrejön a Create (Létrehozás) gombra kattintás után.

Paraméterek A lépések és a LookAhead csak az idősoros feladatokban használatosak és nem használatosak ebben a munkában.

Minden típusú hálózathoz speciális tanulási algoritmusokat használnak, amelyek a Train menüpontban találhatók. Az algoritmus kiválasztásakor javasolt a tanulási paraméterek meghatározása. Például, amikor többrétegű perceptron tanulás vissza terjedési (Vonat → Többrétegű Perceptrons → Vissza szaporítás) meghatározott mezőben (12. ábra).

Epochok - korszakok. Megadja a tanulási ciklusok számát, amelyek a Train gomb egyszeri megnyomásakor jelentkeznek. Az alapértelmezett érték 100.

Tanulási sebesség - tanulási sebesség, beállítja a lépés nagysága, ha változik súlyok: az algoritmus konvergál lassan a kis sebességű, a növekedés a tanulási algoritmus sebessége gyorsabb, de bizonyos problémák, amelyek a instabilitását eredményezi (különösen, ha az adatok zajos). Gyors és durva képzés esetén a 0,1-0,6 értékek megfelelőek; elérni pontos szükséges konvergencia alacsonyabb értékek (például, 0,01 vagy akár 0,001, ha sok ezer korszakok). Néha hasznos a tanulási folyamat sebességének csökkentése.

Momentum - tehetetlenség. Ez a paraméter javítja (felgyorsítja) a képzést olyan helyzetekben, amikor a hiba kis mértékben változik, és az algoritmus további stabilitást biztosít, segít az algoritmusnak, hogy ne ragadjon az alföldi és a helyi minimumokba. Ennek a paraméternek mindig a [0; 1] intervallumban kell lennie. Gyakran ajánlott nagyfokú tanulási arány alkalmazása egy kis tehetetlenségi együtthatóval és fordítva.

Shuffle Case - Keverjük össze a megfigyeléseket. Ezzel a funkcióval minden egyes új iterációban megváltozik a megfigyeléseknek a hálózati bemenetre küldött sorrendje. Ez növeli a képzés zaját, így a hiba kisebb ingadozásokat tapasztalhat. Azonban kevésbé valószínű, hogy az algoritmus "elakad", és általában javul a munkája általános teljesítménye.







Keresztellenőrzés - A neurális hálózatok megtanulásának szokásos módja, hogy a hálózat megtudja az egyik készletet, a másik pedig az eredményt ellenőrzi; így a képzéshez beállított szabályozó nem kerül felhasználásra. Ez független módon ellenőrzi, hogy a hálózat megtanulta-e valami hasznosat.

Reinitialize - visszaállíthatja az előző képzési ciklusban vagy az előző hálózatban kapott hálózati beállításokat.

Indítsa el a tanulási algoritmust a Vonat gomb megnyomásával. Minden alkalommal, amikor a vonat gomb megnyomása történik, az algoritmus végrehajtja az N tanulási ciklusokat, ahol N az Epoch-ban meghatározott tanulási ciklusok száma.

A grafikonon (Statisztika → Képzési hiba grafikon) megfigyelheti a hálózati hiba változását a képzés során. A képzési hiba grafikon a kimenet gyökér-közép-négyzetes hibájának leképezése az egész edzéskészleten.

A grafikonon akkor megfigyelhetjük a nemkívánatos hatást átképzés (ha a hálózat megtanulja jól, hogy ugyanaz a kimeneti értékek, mint a tanító, de nem tudja, hogy összefoglalja a törvény az új adatok). Először a tanulási hiba és az ellenőrzési hiba is csökken. Kezdete óta a átnevelés képzés hiba továbbra is csökken, és a vezérlő hiba (általában piros) kezd növekedni. Növekedési paritás hiba a kezdetét jelzi az átképzési és azt jelzi, hogy a tanulási algoritmus elkezdi romboló (és azt is, hogy megfelelőbb lehet kisebb hálózat).

Ha módosítja a hálózati paramétereket a képzés előtt, akkor vissza kell állítania az előző hálózat súlyait (konfigurált paramétereit). Az MLP hálózaton kattintson a Reinitialize elemre.

A STATISTICA Neural Networks csomag a legjobb hálózat automatikus memorizálását biztosítja a kísérlet során. A legjobb hálózati értékek visszaállításához menjen a Vonat → Kiegészítő → Legjobb hálózat menübe.

A hálózaton keresztül történő adat kiszámításához használja a menü Futtatás: Adatkészlet - számítás a forrásfájl összes adatához;

Egy ügy - egy megfigyelés kiszámítása;

Egyszeri számítás önkényes bemeneti vektorhoz.

A számítás a megfelelő ablak Futtatás gombjára kattintva történik.

Az előző esethez hasonlóan, csak a tényleges kimeneti érték jelenik meg a táblázatokban.

Nyissa meg a Futtatás → Egyszeri menüpontot. írja be azokat a bemeneti értékeket, amelyekre a kimenetet meg kívánja becsülni, majd kattintson a Futtatás parancsra.

A STATISTICA Neural Networks csomag automatikusan meghatározza a legjobb hálózati struktúra egy sor képzési adatok (elérhető a Fájl → Új → Intelleigent Problémamegoldás).

Hálózati működési algoritmus a STATISTICA Neural Networks csomagban.

1 A bemeneti adatok normalizálása:

hol van a normalizációs együttható? . a képzési minta j-edik változójának maximális és minimális értékei; i a képminta-karakterlánc száma.

2 Adja meg a bemeneti vektort a következő réteghez a megfelelő súlyozási tényezővel (lásd: Szerkesztés → Hálózat ...).

3 Vonja le az egyes neuronok küszöbértékét (lásd Szerkesztés → Hálózat ... Theshold mező).

4 A neuron aktiválási funkció kiszámítása (lásd: Run → Aktivációk ... az eredményhez).

5 Ismételje meg az összes hálózati rétegre vonatkozó lépéseket.

6 A hálózati kimenet kiszámítása a normalizációs tényező figyelembevételével:

. ahol - a képzési minta kimeneti változójának minimális értéke, t - a kimeneti változó száma, - a normalizációs tényező a t kimeneti változóval. - Az utolsó rétegre kiszámított hálózati kimenet normalizált értéke.

1 Mi a neurális hálózat és mi a fő tulajdonsága?

2 Mi a neuron szerkezete?

3 Milyen aktiválási funkciókat lehet használni a neurális hálózatokban?

4 Melyek az aktiválási funkciókra vonatkozó követelmények?

5 Melyek a bemeneti réteg funkciói egy többrétegű hálózatban?

6 Lehetséges, hogy neurális hálózatot képezzen rejtett réteg nélkül?

7 Mi a neurális hálózatok képzése?

8 Miért vált ismertté az egyik tanulási algoritmus a "hátsó propagációs algoritmus"?

9 Mi a különbség a tanárral való tanulás és tanár nélküli tanulás között?

10 Miért kell egy neurális hálózat bemeneti és kimeneti jeleit normalizálni? a [0,1] tartományba esik?

4 Rozenblatt F. A neurodynamika alapelvei. Perceptronok és az agyi mechanizmusok elmélete. -M. A világ, 1965.

7 Sveshnikov S.V. Shkvar A.M. Neurotechnikai információfeldolgozó rendszerek. -Kyiv: Naukova Dumka, 1983. -222 o.




Kapcsolódó cikkek