Gradiens - objektív funkció - nagy olaj- és gázcikk enciklopédia, cikk, 4. oldal

A Kuhn Tucker-feltételek akkor is hasznosak, ha az optimális ponton nincsenek aktív korlátozások. Ebben az esetben csak az objektumfüggvény gradiensét veszik figyelembe. Az optimális ponton nulla legyen. [48]

Megjegyezzük, hogy a legmeredekebb lejtés módja minden egyes optimalizálási lépésnél, valamint koordináta-süllyedés esetén egydimenziós problémák egy sorával csökkenti a többdimenziós optimalizálási problémát. A különbség az, hogy itt az egydimenziós optimalizálás irányát az objektív függvény gradiense határozza meg. míg a koordináta-sorsú leereszkedést minden lépésben az egyik koordináta irányában végezzük. [49]

Definíció szerint a gradiensek normálok, és az azonos szintű vonalakra húzódó érintők. Mivel az optimális érintési pont a célfüggvény és korlátok funkciók mérkőzés, a gradiensek a célfüggvény és a függvény adott korlátok egy egyenesbe esik, és értékeik arányos faktoron belül K. [50]

Az objektív függvény gradiensét az x Ax pontban a (4.3.34) bal oldala adja meg, ha x elég közel van az x Axhoz abban az értelemben, hogy a négyzetes közelítés megfelelő. Ahhoz, hogy Ag x: a helyi optimális ponton már a jelenlegi készlet aktív korlátok megkövetelik, hogy a gradiens a célfüggvény ezen a ponton volt merőleges a felület által alkotott az aktív korlátok. Ez azt jelenti, hogy a gradiensvektor vetülete ezen a felületen nulla, és a további mozgás nem eredményez javulást. Annak érdekében, hogy a gradiensvektor a korlátok-egyenlőtlenségek által alkotott felülethez ortogonális legyen, a normálok lineáris kombinációja kell, hogy legyen ezeknek a korlátoknak; ezeket a normálokat a (4.3.34), a H és a // jobboldali oldala adja, a Lagrange-szorzóknak nevezzük. [51]

Ezért, amikor eldönti, hogy adott algoritmus megoldja ezt a problémát, meg kell vennie nemcsak a konvergencia sebessége az algoritmus, hanem a mértéke feltételesség adódó probléma természetét. Általánosságban elmondható, hogy ha a keresési terület nagyon keskeny és banán alakú, olyan algoritmusok vannak, amelyekben a keresést az objektív függvény gradiense irányában végezzük. vagy módszereket a lehetséges irányait az elsőrendű (Sec. Ami a kvázi-Newton módszerek, konjugált gradiens módszer és módszerek a lehetséges irányokat a másodrendű (Sec. így, ha a keresési területet kedvezőtlenül formában, úgy döntünk, az egyik superlinearly konvergáló algoritmusok, kivéve, ha a szükséges időt egy iteráció miatt, nem lesz túl nagy. [52]

A determinisztikus tanulási módszer csak a tömegpályán lévő objektumfüggvény gradiensének irányára vonatkozó információ alapján módosítja a hálózati súlyokat. Ahhoz, hogy a hálózat elhagyja a helyi extremumot és megkerülje a globális keresést, létre kell hozni egy olyan kiegészítő erőt, amely nem függ az objektív függvény gradienseitől. de más tényezőkből. Ezeknek a tényezőknek a megválasztása, többé-kevésbé különböző heurisztikus megfontolásokkal indokolták, különböző módszerek alapját képezik a helyi csapdák leküzdésére. Az egyik legegyszerűbb módszer az, hogy egyszerűen hozzon létre egy véletlen erő, és hozzáadja determinisztikus. [53]

Az algoritmus lehetővé teszi számunkra, hogy meghatározzunk minden félig hatékony csúcsot, mivel a DDO félig hatékony élein keresztül kapcsolódnak egymáshoz. A szerepe ezeknek a bordák, hogy azok korlátozzák az aldomaineken X, amelyek hatékonyak belső pontja X. belül ezek a szélek konvex kombinációja színátmenetek a célfüggvény egyenlő a nulla vektor. [54]

Amint már megjegyeztük, az általánosított sztochasztikus gradiensek módszere nem igényel egyenértékű determinisztikus probléma objektív függvényének differenciálhatóságát. Itt a lehetséges irányok módszerének lehetséges változatát tekintjük a lineáris sztochasztikus programozás kétlépcsős problémájának megoldására. Ennek a módszernek a használata és igazolása megköveteli egy ekvivalens determinisztikus probléma objektív függvényének gradiensének létezését és folytonosságát. Mint más módszerek bemutatásánál, feltételezzük, hogy számolni lehet az összes matematikai várakozást, amelyek értékeit az alábbi algoritmusban használjuk. [55]

A nemlineáris programozás nemlineáris célfunkciókra és / vagy korlátokra szolgál. A korlátozások általában az egyenlőtlenségek formájában vannak, ami a megoldást megoldja a bizonytalan Lagrange-szorzók módszerével. Ezeket a problémákat is megoldott irányított keresés (általában az objektív függvény gradiense alapján), ami egy helyi extremumhoz vezet. [56]

A függőségek (20.53) - (20.57) összegének minimálisra csökkentésére szolgáló optimalizálási paraméterek meghatározása (a megoldás második szakasza) függvényében az alábbiak szerint történik. A termelési állapotra vonatkozó információk szerint a tárgyidő függvény részleges származékainak értékeit az optimalizációs paraméterek határozzák meg. A származékok származtatott értékeit ezután használják arra, hogy ezeket a paramétereket az objektumfüggvény gradiensével ellentétes irányban változtassák; míg a mozgás lehetőségét ezen irányok egyikében minden lépésnél a probléma megoldásának első szakaszában kapott eredmények határozzák meg. Az oldat második szakaszában megkövetelt növényi modell a függvények (20.53) - (20.57) és a megnevezett feltételek összegzéséből kapott egyenletből áll. Az objektív függvény részleges származékai a folyamat optimalizálására használt kontrollparaméterek függvényében az optimalizálási paraméterek műhelyköltségeinek részleges származékaitól függenek. [57]

Oldalak: 1 2 3 4

Ossza meg ezt a linket:

Kapcsolódó cikkek