Thursday 27 April 2017

Exponentiell Gleitender Adaptiver Algorithmus

Der Adaptive Moving Average Adaptive Moving Average (AMA) - Technikindikator wird verwendet, um einen gleitenden Durchschnitt mit geringer Empfindlichkeit gegenüber Preisreihengeräuschen zu konstruieren und ist durch die minimale Verzögerung für die Trenddetektion gekennzeichnet. Dieser Indikator wurde von Perry Kaufman in seinem Buch "Marter Tradingquot" entwickelt und beschrieben. Einer der Nachteile der verschiedenen Glättungsalgorithmen für Preisreihen ist, dass zufällige Preissprünge das Auftreten falscher Trendsignale zur Folge haben können. Auf der anderen Seite führt die Glättung zu der unvermeidlichen Verzögerung eines Signals über Trendstopp oder Änderung. Dieser Indikator wurde zur Beseitigung dieser beiden Nachteile entwickelt. Sie können die Handelssignale dieses Indikators testen, indem Sie einen Expertenratgeber im MQL5-Assistenten erstellen. Kalkulation Um den gegenwärtigen Marktstatus zu bestimmen, hat Kaufman den Begriff des Wirkungsgrades (ER) eingeführt, der nach folgender Formel berechnet wird: ER (i) aktueller Wert des Wirkungsgrad-Signals (i) ABS (Preis (i) - Preis (i - N)) aktueller Signalwert, absoluter Wert der Differenz zwischen dem aktuellen Preis und dem Preis N Zeitraum vorher Rauschen (i) Summe (ABS (Preis (i) - Preis (i - 1)), N) aktueller Rauschwert, Summe Absolute Werte der Differenz zwischen dem Preis der aktuellen Periode und dem Preis der Vorperiode für N Perioden. Bei einem starken Trend wird das Efficiency Ratio (ER) dazu tendieren, wenn es keine gerichtete Bewegung gibt, wird es etwas mehr als 0 sein. Der erhaltene Wert von ER wird in der exponentiellen Glättungsformel verwendet: EMA (i) Preis (d. h. ) SC EMA (i-1) (1 - SC) SC 2 / (n1) EMA-Glättungskonstante, n Periode des exponentiellen EMA (i-1) vorherigen Wertes von EMA. Das Glättungsverhältnis für den schnellen Markt muss wie bei EMA mit Periode 2 (schnelles SC 2 / (21) 0.6667) sein, und für den Zeitraum von keinem Trend muss die EMA-Periode gleich 30 sein (langsamer SC 2 / (301) 0.06452) . Somit wird die neue Wechselglättungskonstante eingeführt (skalierte Glättungskonstante) SSC: SSC (i) (ER (i) (schnell SC - langsames SC) langsam SC SSC (i) ER (i) 0.60215 0,06425 Für einen effizienteren Einfluss der Berechnungsformel: AMA (i) Preis (i) (SSC (i) 2) AMA (i-1) (1-SSC (i) 2) oder (nach Umlagerung (I) - AMA (i) AMA (i) aktueller Wert von AMA AMA (i1) vorheriger Wert von AMA SSC (i) I) aktueller Wert der skalierten Glättungskonstante. Fractal Adaptive Moving Average Fractal Der adaptive Moving Average Technical Indicator (FRAMA) wurde von John Ehlers entwickelt und basiert auf dem Algorithmus des Exponential Moving Average, in dem der Glättungsfaktor berechnet wird Basierend auf der aktuellen fraktalen Dimension der Preisreihen. Der Vorteil von FRAMA ist die Möglichkeit, starken Trendbewegungen zu folgen und in den Momenten der Preiskonsolidierung hinreichend zu verlangsamen. Alle Analysetypen, die für Bewegungsdurchschnitte verwendet werden, können auf dieses Kennzeichen angewendet werden. Sie können die Handelssignale dieses Indikators testen, indem Sie einen Expertenratgeber im MQL5-Assistenten erstellen. (I) FRAMA (i - 1) FRAMA (i) aktueller Wert von FRAMA Preis (i) aktueller Preis FRAMA (i - 1) vorheriger Wert von FRAMA A (i) Stromfaktor der exponentiellen Glättung. Der exponentielle Glättungsfaktor wird nach folgender Formel berechnet: A (i) EXP (-4.6 (D (i) - 1)) D (i) aktuelle fraktale Dimension EXP () mathematische Funktion des Exponenten. Die Fraktaldimension einer Geraden ist gleich Eins. Es ist aus der Formel ersichtlich, daß, wenn D & sub1 ;, dann EXP (-4,6 (1-1)) EXP (0) 1 ist. So wird bei Preisänderungen in geraden Linien keine exponentielle Glättung verwendet, da in einem solchen Fall die Formel sieht aus wie das. FRAMA (i) 1 Preis (i) (1 1) FRAMA (i1) Preis (i) I. e. Der Indikator folgt genau dem Preis. Die fraktale Dimension einer Ebene ist gleich zwei. Aus der Formel ergibt sich, dass, wenn D 2, dann der Glättungsfaktor EXP (-4,6 (2-1)) EXP (-4,6) 0,01. Ein solch kleiner Wert des exponentiellen Glättungsfaktors wird zu Momenten erhalten, wenn der Preis eine starke Sägezahnbewegung ausführt. Ein solches starkes Abbremsen entspricht etwa 200-Perioden einfachen gleitenden Durchschnitt. Formel der fraktalen Dimension: D (LOG (N1 N2) - LOG (N3)) / LOG (2) Sie wird auf der Grundlage der zusätzlichen Formel N (Länge, i) (HöchstPreis (i) - Niedrigster Preis (i)) / (I) aktueller Maximalwert für Längenperioden LowestPrice (i) aktueller Minimalwert für Längenperioden Die Werte N1, N2 und N3 sind jeweils gleich: N2 (i) N (Länge, i Länge) N3 (i) N (2) (KAMA) Kaufman039s Adaptiver Moving Average (KAMA) Einleitung Entwickelt von Perry Kaufman, Kaufman039s Der adaptive Moving Average (KAMA) ist ein gleitender Durchschnitt, der für Marktlärm oder Volatilität verantwortlich ist. KAMA wird die Preise genau verfolgen, wenn die Preisschwankungen relativ klein sind und der Lärm gering ist. KAMA wird sich anpassen, wenn die Preisschwankungen sich verbreitern und die Preise aus größerer Entfernung folgen. Mit diesem Trendfolger können Sie den Gesamttrend, Zeitumkehrpunkte und Filterpreisbewegungen identifizieren. Berechnung Es sind mehrere Schritte erforderlich, um Kaufman039s Adaptive Moving Average zu berechnen. Let039s ersten Start mit den Einstellungen von Perry Kaufman empfohlen, die KAMA (10,2,30) sind. 10 ist die Anzahl der Perioden für das Efficiency Ratio (ER). 2 ist die Anzahl der Perioden für die schnellste EMA-Konstante. 30 ist die Anzahl der Perioden für die langsamste EMA-Konstante. Bevor wir KAMA berechnen, müssen wir das Efficiency Ratio (ER) und die Smoothing Constant (SC) berechnen. Das Brechen der Formel in Bissgrßen-Nuggets macht es leichter, die Methodik hinter dem Indikator zu verstehen. Beachten Sie, dass ABS für Absolutwert steht. Efficiency Ratio (ER) Die ER ist grundsätzlich die an die tägliche Volatilität angepasste Preisänderung. In statistischer Hinsicht zeigt das Efficiency Ratio die fraktale Effizienz von Preisänderungen an. ER schwankt zwischen 1 und 0, aber diese Extreme sind die Ausnahme, nicht die Norm. ER wäre 1, wenn die Preise verschoben 10 aufeinander folgenden Perioden oder nach 10 aufeinander folgenden Perioden. ER wäre null, wenn der Kurs über die 10 Perioden unverändert bleibt. Glättungskonstante (SC) Die Glättungskonstante verwendet den ER und zwei Glättungskonstanten, die auf einem exponentiellen gleitenden Durchschnitt basieren. Wie Sie vielleicht bemerkt haben, verwendet die Glättungskonstante die Glättungskonstanten für einen exponentiellen gleitenden Durchschnitt in ihrer Formel. (2/301) die Glättungskonstante für ein 30-Perioden-EMA ist. Der schnellste SC ist die Glättungskonstante für kürzere EMA (2-Perioden). Der langsamste SC ist die Glättungskonstante für die langsamste EMA (30 Perioden). Beachten Sie, dass die 2 am Ende die Gleichung quadrieren soll. KAMA Mit dem Efficiency Ratio (ER) und Smoothing Constant (SC) können wir nun den Kaufman039s Adaptive Moving Average (KAMA) berechnen. Da wir einen Anfangswert benötigen, um die Berechnung zu starten, ist die erste KAMA nur ein einfacher gleitender Durchschnitt. Die folgenden Berechnungen basieren auf der nachstehenden Formel. Berechnungsbeispiel / Diagramm Die folgenden Bilder zeigen einen Screenshot aus einer Excel-Tabelle zur Berechnung von KAMA und dem entsprechenden QQQ-Diagramm. Verwendung und Signale Chartisten können KAMA wie alle anderen Trend folgenden Indikator, wie einen gleitenden Durchschnitt verwenden. Chartisten können nach Preiskreuzen, Richtungsänderungen und gefilterten Signalen suchen. Zuerst zeigt ein Kreuz über oder unter KAMA Richtungsänderungen der Preise an. Wie bei jedem gleitenden Durchschnitt, wird ein einfaches Crossover-System erzeugen viele Signale und viele whipsaws. Chartisten können Whipsaws reduzieren, indem sie einen Preis - oder Zeitfilter auf die Crossover anwenden. Man könnte Preis verlangen, das Kreuz für eine festgelegte Anzahl von Tagen zu halten, oder erfordern das Kreuz, das die KAMA um einen festgelegten Prozentsatz übersteigt. Zweitens können Chartisten die Richtung von KAMA verwenden, um den Gesamttrend für eine Sicherheit zu definieren. Dies kann eine Parameteranpassung erfordern, um die Anzeige weiter zu glätten. Chartisten können den mittleren Parameter ändern, der die schnellste EMA-Konstante ist, um KAMA zu glätten und nach Richtungsänderungen zu suchen. Der Trend ist nach unten, solange KAMA fällt und schmieden unteren Tiefs. Die Tendenz steigt, solange KAMA steigt und höhere Höhen schmiedet. Das Kroger-Beispiel unten zeigt KAMA (10,5,30) mit einem steilen Aufwärtstrend von Dezember bis März und einem weniger steilen Aufwärtstrend von Mai bis August. Und schließlich können Chartisten Signale und Techniken kombinieren. Chartisten können eine längerfristige KAMA verwenden, um den größeren Trend und eine kurzfristige KAMA für Handelssignale zu definieren. Beispielsweise könnte KAMA (10, 5, 30) als Trendfilter verwendet werden und im Anstieg als bullisch angesehen werden. Sobald bullish, könnte Chartisten dann bullish Kreuze suchen, wenn der Preis bewegt sich über KAMA (10,2,30). Das folgende Beispiel zeigt MMM mit einem steigenden langfristigen KAMA und bullischen Kreuzen im Dezember, Januar und Februar. Langfristige KAMA sank im April und es gab bearish Kreuze im Mai, Juni und Juli. SharpCharts KAMA kann als Indikator-Overlay in der SharpCharts-Workbench gefunden werden. Die Standardeinstellungen werden automatisch in der Parameterbox angezeigt, sobald sie ausgewählt sind, und die Chartisten können diese Parameter entsprechend ihren analytischen Bedürfnissen ändern. Der erste Parameter ist für das Effizienzverhältnis und die Chartisten sollten davon absehen, diese Zahl zu erhöhen. Stattdessen können Chartisten es verringern, um die Empfindlichkeit zu erhöhen. Chartisten, die KAMA für eine längerfristige Trendanalyse glätten möchten, können den mittleren Parameter schrittweise erhöhen. Obwohl der Unterschied nur 3 ist, ist KAMA (10,5,30) deutlich glatter als KAMA (10,2,30). Weitere Studie Der Autor bietet detaillierte Informationen zu Indikatoren, Programmen, Algorithmen und Systemen, einschließlich Einzelheiten über KAMA und andere gleitende Durchschnittssysteme. Trading Systeme und Methoden Perry KaufmanMoving durchschnittliche und exponentielle Glättungsmodelle Als ein erster Schritt bei der Überwindung jenseits von Mittelwerten, zufälligen Wandermodellen und linearen Trendmodellen können nicht-saisonale Muster und Trends mit einem gleitenden Durchschnitt oder Glättungsmodell extrapoliert werden. Die grundlegende Annahme hinter Mittelwertbildung und Glättungsmodellen ist, dass die Zeitreihe lokal stationär mit einem sich langsam verändernden Mittelwert ist. Daher nehmen wir einen bewegten (lokalen) Durchschnitt, um den aktuellen Wert des Mittelwerts abzuschätzen und dann als die Prognose für die nahe Zukunft zu verwenden. Dies kann als Kompromiss zwischen dem mittleren Modell und dem random-walk-ohne-Drift-Modell betrachtet werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als "quotsmoothedquot" - Version der ursprünglichen Serie bezeichnet, da die kurzzeitige Mittelung die Wirkung hat, die Stöße in der ursprünglichen Reihe zu glätten. Durch Anpassen des Glättungsgrades (die Breite des gleitenden Durchschnitts) können wir hoffen, eine Art von optimaler Balance zwischen der Leistung des Mittelwerts und der zufälligen Wandermodelle zu erreichen. Die einfachste Art der Mittelung Modell ist die. Einfache (gleichgewichtige) Moving Average: Die Prognose für den Wert von Y zum Zeitpunkt t1, der zum Zeitpunkt t gemacht wird, entspricht dem einfachen Mittelwert der letzten m Beobachtungen: (Hier und anderswo werde ich das Symbol 8220Y-hat8221 stehen lassen Für eine Prognose der Zeitreihe Y, die am frühestmöglichen früheren Zeitpunkt durch ein gegebenes Modell durchgeführt wird.) Dieser Mittelwert wird in der Periode t (m1) / 2 zentriert, was bedeutet, daß die Schätzung des lokalen Mittels dazu neigt, hinter dem Wert zu liegen Wahren Wert des lokalen Mittels um etwa (m1) / 2 Perioden. Das durchschnittliche Alter der Daten im einfachen gleitenden Durchschnitt ist also (m1) / 2 relativ zu der Periode, für die die Prognose berechnet wird: dies ist die Zeitspanne, in der die Prognosen dazu tendieren, hinter den Wendepunkten in der Daten. Wenn Sie z. B. die letzten 5 Werte mitteln, werden die Prognosen etwa 3 Perioden spät sein, wenn sie auf Wendepunkte reagieren. Beachten Sie, dass, wenn m1, die einfache gleitende Durchschnitt (SMA) - Modell ist gleichbedeutend mit der random walk-Modell (ohne Wachstum). Wenn m sehr groß ist (vergleichbar der Länge des Schätzzeitraums), entspricht das SMA-Modell dem mittleren Modell. Wie bei jedem Parameter eines Prognosemodells ist es üblich, den Wert von k anzupassen, um den besten Quotienten der Daten zu erhalten, d. H. Die kleinsten Prognosefehler im Durchschnitt. Hier ist ein Beispiel einer Reihe, die zufällige Fluktuationen um ein sich langsam veränderndes Mittel zu zeigen scheint. Erstens können wir versuchen, es mit einem zufälligen Weg Modell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Begriff entspricht: Das zufällige Wandermodell reagiert sehr schnell auf Änderungen in der Serie, aber dabei nimmt sie einen Großteil der quotnoisequot in der Daten (die zufälligen Fluktuationen) sowie das Quotsignalquot (das lokale Mittel). Wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Begriffen anwenden, erhalten wir einen glatteren Satz von Prognosen: Der 5-Term-einfache gleitende Durchschnitt liefert in diesem Fall deutlich kleinere Fehler als das zufällige Wegmodell. Das durchschnittliche Alter der Daten in dieser Prognose beträgt 3 ((51) / 2), so dass es dazu neigt, hinter den Wendepunkten um etwa drei Perioden zu liegen. (Zum Beispiel scheint ein Abschwung in Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich erst nach mehreren Perioden später.) Beachten Sie, dass die Langzeitprognosen des SMA-Modells eine horizontale Gerade sind, genau wie beim zufälligen Weg Modell. Somit geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Während jedoch die Prognosen aus dem Zufallswegmodell einfach dem letzten beobachteten Wert entsprechen, sind die Prognosen des SMA-Modells gleich einem gewichteten Mittelwert der neueren Werte. Die von Statgraphics berechneten Konfidenzgrenzen für die Langzeitprognosen des einfachen gleitenden Durchschnitts werden nicht breiter, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht richtig Leider gibt es keine zugrunde liegende statistische Theorie, die uns sagt, wie sich die Vertrauensintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Konfidenzgrenzen für die längerfristigen Prognosen zu berechnen. Beispielsweise können Sie eine Tabellenkalkulation einrichten, in der das SMA-Modell für die Vorhersage von 2 Schritten im Voraus, 3 Schritten voraus usw. innerhalb der historischen Datenprobe verwendet wird. Sie könnten dann die Stichproben-Standardabweichungen der Fehler bei jedem Prognosehorizont berechnen und dann Konfidenzintervalle für längerfristige Prognosen durch Addieren und Subtrahieren von Vielfachen der geeigneten Standardabweichung konstruieren. Wenn wir einen 9-term einfachen gleitenden Durchschnitt ausprobieren, erhalten wir sogar noch bessere Prognosen und mehr eine nacheilende Wirkung: Das Durchschnittsalter beträgt jetzt 5 Perioden ((91) / 2). Wenn wir einen 19-term gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10 an: Beachten Sie, dass die Prognosen tatsächlich hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welches Maß an Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, darunter auch einen 3-Term-Durchschnitt: Modell C, der 5-Term-Gleitender Durchschnitt, ergibt den niedrigsten Wert von RMSE mit einer kleinen Marge über die 3 - term und 9-Term-Mittelwerte, und ihre anderen Statistiken sind fast identisch. So können wir bei Modellen mit sehr ähnlichen Fehlerstatistiken wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen würden. (Rückkehr nach oben.) Browns Einfache Exponentialglättung (exponentiell gewichteter gleitender Durchschnitt) Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, daß es die letzten k-Beobachtungen gleich und vollständig ignoriert. Intuitiv sollten vergangene Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel sollte die jüngste Beobachtung ein wenig mehr Gewicht als die zweitletzte erhalten, und die 2. jüngsten sollten ein wenig mehr Gewicht als die 3. jüngsten erhalten, und bald. Das einfache exponentielle Glättungsmodell (SES) erfüllt dies. 945 bezeichnen eine quotsmoothing constantquot (eine Zahl zwischen 0 und 1). Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Serie L zu definieren, die den gegenwärtigen Pegel (d. H. Den lokalen Mittelwert) der Serie, wie er aus Daten bis zu der Zeit geschätzt wird, darstellt. Der Wert von L zur Zeit t wird rekursiv von seinem eigenen vorherigen Wert wie folgt berechnet: Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorher geglätteten Wert und der aktuellen Beobachtung, wobei 945 die Nähe des interpolierten Wertes auf die neueste steuert Überwachung. Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert: Äquivalent können wir die nächste Prognose direkt in Form früherer Prognosen und früherer Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation zwischen vorheriger Prognose und vorheriger Beobachtung: In der zweiten Version wird die nächste Prognose durch Anpassung der bisherigen Prognose in Richtung des bisherigen Fehlers um einen Bruchteil 945 erhalten Zeit t. In der dritten Version ist die Prognose ein exponentiell gewichteter (dh diskontierter) gleitender Durchschnitt mit Abzinsungsfaktor 1-945: Die Interpolationsversion der Prognoseformel ist am einfachsten zu verwenden, wenn Sie das Modell in einer Tabellenkalkulation implementieren Einzelne Zelle und enthält Zellverweise, die auf die vorhergehende Prognose, die vorherige Beobachtung und die Zelle mit dem Wert von 945 zeigen. Beachten Sie, dass, wenn 945 1, das SES-Modell zu einem zufälligen Weg-Modell (ohne Wachstum) äquivalent ist. Wenn 945 0 ist, entspricht das SES-Modell dem mittleren Modell, wobei angenommen wird, dass der erste geglättete Wert gleich dem Mittelwert gesetzt ist. (Zurück zum Seitenanfang) Das Durchschnittsalter der Daten in der Simple-Exponential-Glättungsprognose beträgt 1/945 relativ zu dem Zeitraum, für den die Prognose berechnet wird. (Dies sollte nicht offensichtlich sein, kann aber leicht durch die Auswertung einer unendlichen Reihe gezeigt werden.) Die einfache gleitende Durchschnittsprognose neigt daher zu Verzögerungen hinter den Wendepunkten um etwa 1/945 Perioden. Wenn beispielsweise 945 0,5 die Verzögerung 2 Perioden beträgt, wenn 945 0,2 die Verzögerung 5 Perioden beträgt, wenn 945 0,1 die Verzögerung 10 Perioden und so weiter ist. Für ein gegebenes Durchschnittsalter (d. H. Eine Verzögerung) ist die einfache exponentielle Glättungsprognose (SES) der simplen gleitenden Durchschnittsprognose (SMA) etwas überlegen, weil sie relativ viel mehr Gewicht auf die jüngste Beobachtung - i. e stellt. Es ist etwas mehr quresponsivequot zu Änderungen, die sich in der jüngsten Vergangenheit. Zum Beispiel haben ein SMA - Modell mit 9 Terminen und ein SES - Modell mit 945 0,2 beide ein durchschnittliches Alter von 5 Jahren für die Daten in ihren Prognosen, aber das SES - Modell legt mehr Gewicht auf die letzten 3 Werte als das SMA - Modell und am Gleiches gilt für die Werte von mehr als 9 Perioden, wie in dieser Tabelle gezeigt: 822forget8221. Ein weiterer wichtiger Vorteil des SES-Modells gegenüber dem SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der kontinuierlich variabel ist und somit leicht optimiert werden kann Indem ein Quotsolverquot-Algorithmus verwendet wird, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert von 945 im SES-Modell für diese Serie ergibt sich wie folgt: Das Durchschnittsalter der Daten in dieser Prognose beträgt 1 / 0,2961 3,4 Perioden, was ähnlich wie bei einem 6-Term-Simple Moving ist durchschnittlich. Die Langzeitprognosen aus dem SES-Modell sind eine horizontale Gerade. Wie im SMA-Modell und dem Random-Walk-Modell ohne Wachstum. Es ist jedoch anzumerken, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftigen Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für das Zufallswegmodell. Das SES-Modell geht davon aus, dass die Reihe etwas vorhersehbarer ist als das Zufallswandermodell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells. So dass die statistische Theorie der ARIMA-Modelle eine solide Grundlage für die Berechnung der Konfidenzintervalle für das SES-Modell bildet. Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht sonderbaren Differenz, einem MA (1) - Term und kein konstanter Term. Ansonsten als quotARIMA (0,1,1) - Modell ohne Konstantquot bekannt. Der MA (1) - Koeffizient im ARIMA-Modell entspricht der Größe 1 - 945 im SES-Modell. Wenn Sie zum Beispiel ein ARIMA-Modell (0,1,1) ohne Konstante an die hier analysierte Serie anpassen, ergibt sich der geschätzte MA (1) - Koeffizient auf 0,7029, was fast genau ein Minus von 0,2961 ist. Es ist möglich, die Annahme eines von Null verschiedenen konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu wird ein ARIMA-Modell mit einer nicht sonderbaren Differenz und einem MA (1) - Term mit konstantem, d. H. Einem ARIMA-Modell (0,1,1) mit konstantem Wert angegeben. Die langfristigen Prognosen haben dann einen Trend, der dem durchschnittlichen Trend über den gesamten Schätzungszeitraum entspricht. Sie können dies nicht in Verbindung mit saisonalen Anpassungen tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA gesetzt ist. Sie können jedoch einen konstanten langfristigen exponentiellen Trend zu einem einfachen exponentiellen Glättungsmodell (mit oder ohne saisonale Anpassung) hinzufügen, indem Sie die Inflationsanpassungsoption im Prognoseverfahren verwenden. Die prozentuale Zinssatzquote (prozentuale Wachstumsrate) pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell geschätzt werden, das an die Daten in Verbindung mit einer natürlichen Logarithmuswandlung angepasst ist, oder es kann auf anderen unabhängigen Informationen bezüglich der langfristigen Wachstumsperspektiven beruhen . (Rückkehr nach oben.) Browns Linear (dh doppelt) Exponentielle Glättung Die SMA-Modelle und SES-Modelle gehen davon aus, dass es in den Daten keine Tendenzen gibt (die in der Regel in Ordnung sind oder zumindest nicht zu schlecht für 1- Wenn die Daten relativ verrauscht sind), und sie können modifiziert werden, um einen konstanten linearen Trend, wie oben gezeigt, zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen das Rauschen auszeichnet, und wenn es notwendig ist, mehr als eine Periode vorher zu prognostizieren, könnte die Schätzung eines lokalen Trends auch sein Ein Problem. Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungsmodell (LES) zu erhalten, das lokale Schätzungen sowohl des Niveaus als auch des Trends berechnet. Das einfachste zeitvariable Trendmodell ist Browns lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind. Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren. (Eine weiterentwickelte Version dieses Modells, Holt8217s, wird unten diskutiert.) Die algebraische Form des Brown8217s linearen exponentiellen Glättungsmodells, wie die des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von unterschiedlichen, aber äquivalenten Formen ausgedrückt werden. Die quadratische quadratische Form dieses Modells wird gewöhnlich wie folgt ausgedrückt: Sei S die einfach geglättete Reihe, die durch Anwendung einfacher exponentieller Glättung auf Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch: (Erinnern wir uns, Exponentielle Glättung, dies wäre die Prognose für Y in der Periode t1.) Dann sei Squot die doppelt geglättete Reihe, die man erhält, indem man eine einfache exponentielle Glättung (unter Verwendung desselben 945) auf die Reihe S anwendet: Schließlich die Prognose für Ytk. Für jedes kgt1 ist gegeben durch: Dies ergibt e & sub1; & sub0; (d. h. Cheat ein Bit und die erste Prognose der tatsächlichen ersten Beobachtung gleich) und e & sub2; Y & sub2; 8211 Y & sub1; Nach denen die Prognosen unter Verwendung der obigen Gleichung erzeugt werden. Dies ergibt die gleichen Anpassungswerte wie die Formel auf der Basis von S und S, wenn diese mit S 1 S 1 Y 1 gestartet wurden. Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt8217s Lineares Exponentialglättung Brown8217s LES-Modell berechnet lokale Schätzungen von Pegel und Trend durch Glätten der letzten Daten, aber die Tatsache, dass dies mit einem einzigen Glättungsparameter erfolgt, legt eine Einschränkung für die Datenmuster fest, die er anpassen kann: den Pegel und den Trend Dürfen nicht zu unabhängigen Preisen variieren. Holt8217s LES-Modell adressiert dieses Problem durch zwei Glättungskonstanten, eine für die Ebene und eine für den Trend. Zu jedem Zeitpunkt t, wie in Brown8217s-Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T t der lokalen Trend. Hier werden sie rekursiv aus dem zum Zeitpunkt t beobachteten Wert von Y und den vorherigen Schätzungen von Pegel und Trend durch zwei Gleichungen berechnet, die exponentielle Glättung separat anwenden. Wenn der geschätzte Pegel und der Trend zum Zeitpunkt t-1 L t82091 und T t-1 sind. Dann ist die Prognose für Y tshy, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der tatsächliche Wert beobachtet wird, wird die aktualisierte Schätzung des Pegels rekursiv berechnet, indem zwischen Y tshy und seiner Prognose L t-1 T t-1 unter Verwendung von Gewichten von 945 und 1- 945 interpoliert wird. Die Änderung des geschätzten Pegels, Nämlich L t 8209 L t82091. Kann als eine verrauschte Messung des Trends zum Zeitpunkt t interpretiert werden. Die aktualisierte Schätzung des Trends wird dann rekursiv berechnet, indem zwischen L t 8209 L t82091 und der vorherigen Abschätzung des Trends T t-1 interpoliert wird. Unter Verwendung der Gewichte von 946 und 1-946: Die Interpretation der Trendglättungskonstanten 946 ist analog zu der Pegelglättungskonstante 945. Modelle mit kleinen Werten von 946 nehmen an, dass sich der Trend mit der Zeit nur sehr langsam ändert, während Modelle mit Größere 946 nehmen an, dass sie sich schneller ändert. Ein Modell mit einem großen 946 glaubt, dass die ferne Zukunft sehr unsicher ist, da Fehler in der Trendschätzung bei der Prognose von mehr als einer Periode ganz wichtig werden. (Rückkehr nach oben) Die Glättungskonstanten 945 und 946 können auf übliche Weise geschätzt werden, indem der mittlere quadratische Fehler der 1-Schritt-Voraus-Prognosen minimiert wird. Wenn dies in Statgraphics getan wird, erweisen sich die Schätzungen als 945 0.3048 und 946 0,008. Der sehr geringe Wert von 946 bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten annimmt, so dass dieses Modell im Grunde versucht, einen langfristigen Trend abzuschätzen. In Analogie zum Durchschnittsalter der Daten, die für die Schätzung der lokalen Ebene der Serie verwendet werden, ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, proportional zu 1/946, wenn auch nicht exakt gleich es. In diesem Falle ergibt sich 1 / 0,006 125. Dies ist eine sehr genaue Zahl, da die Genauigkeit der Schätzung von 946 nicht wirklich 3 Dezimalstellen beträgt, sondern dieselbe von der gleichen Größenordnung wie die Stichprobengröße von 100 ist , So dass dieses Modell ist im Durchschnitt über eine ganze Menge Geschichte bei der Schätzung der Trend. Das Prognose-Diagramm unten zeigt, dass das LES-Modell einen etwas größeren lokalen Trend am Ende der Serie schätzt als der im SEStrend-Modell geschätzte konstante Trend. Außerdem ist der Schätzwert von 945 fast identisch mit dem, der durch Anpassen des SES-Modells mit oder ohne Trend erhalten wird, so dass dies fast das gleiche Modell ist. Nun, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll Schätzung einer lokalen Tendenz Wenn Sie 8220eyeball8221 dieser Handlung, sieht es so aus, als ob der lokale Trend nach unten am Ende der Serie gedreht hat Was ist passiert Die Parameter dieses Modells Wurden durch Minimierung des quadratischen Fehlers von 1-Schritt-Voraus-Prognosen, nicht längerfristigen Prognosen, abgeschätzt, wobei der Trend keinen großen Unterschied macht. Wenn alles, was Sie suchen, 1-Schritt-vor-Fehler sind, sehen Sie nicht das größere Bild der Trends über (sagen) 10 oder 20 Perioden. Um dieses Modell im Einklang mit unserer Augapfel-Extrapolation der Daten zu erhalten, können wir die Trendglättungskonstante manuell anpassen, so dass sie eine kürzere Basislinie für die Trendschätzung verwendet. Wenn wir beispielsweise 946 0,1 setzen, beträgt das durchschnittliche Alter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so mitteln. Here8217s, was das Prognose-Plot aussieht, wenn wir 946 0,1 setzen, während 945 0,3 halten. Dies scheint intuitiv vernünftig für diese Serie, obwohl es wahrscheinlich gefährlich, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was ist mit den Fehlerstatistiken Hier ist ein Modellvergleich für die beiden oben gezeigten Modelle sowie drei SES-Modelle. Der optimale Wert von 945 für das SES-Modell beträgt etwa 0,3, aber ähnliche Ergebnisse (mit etwas mehr oder weniger Reaktionsfähigkeit) werden mit 0,5 und 0,2 erhalten. (A) Holts linearer Exp. Glättung mit alpha 0.3048 und beta 0,008 (B) Holts linear exp. Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,3 (E) Einfache exponentielle Glättung mit alpha 0,2 Ihre Stats sind nahezu identisch, so dass wir wirklich die Wahl auf der Basis machen können Von 1-Schritt-Vorhersagefehlern innerhalb der Datenprobe. Wir müssen auf andere Überlegungen zurückgreifen. Wenn wir glauben, dass es sinnvoll ist, die aktuelle Trendschätzung auf das, was in den letzten 20 Perioden passiert ist, zugrunde zu legen, können wir für das LES-Modell mit 945 0,3 und 946 0,1 einen Fall machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle leichter zu erklären sein, und würde auch für die nächsten 5 oder 10 Perioden mehr Mittelprognosen geben. (Rückkehr nach oben.) Welche Art von Trend-Extrapolation am besten ist: horizontal oder linear Empirische Evidenz deutet darauf hin, dass es, wenn die Daten bereits für die Inflation angepasst wurden (wenn nötig), unprätent ist, kurzfristige lineare Werte zu extrapolieren Trends sehr weit in die Zukunft. Die heutigen Trends können sich in Zukunft aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und konjunkturelle Abschwünge oder Aufschwünge in einer Branche abschwächen. Aus diesem Grund führt eine einfache exponentielle Glättung oft zu einer besseren Out-of-Probe, als ansonsten erwartet werden könnte, trotz ihrer quotnaivequot horizontalen Trend-Extrapolation. Damped Trendmodifikationen des linearen exponentiellen Glättungsmodells werden in der Praxis häufig auch eingesetzt, um in seinen Trendprojektionen eine Note des Konservatismus einzuführen. Das Dämpfungs-Trend-LES-Modell kann als Spezialfall eines ARIMA-Modells, insbesondere eines ARIMA-Modells (1,1,2), implementiert werden. Es ist möglich, Konfidenzintervalle um langfristige Prognosen zu berechnen, die durch exponentielle Glättungsmodelle erzeugt werden, indem man sie als Spezialfälle von ARIMA-Modellen betrachtet. (Achtung: Nicht alle Software berechnet die Konfidenzintervalle für diese Modelle korrekt.) Die Breite der Konfidenzintervalle hängt ab von (i) dem RMS-Fehler des Modells, (ii) der Art der Glättung (einfach oder linear) (iii) dem Wert (S) der Glättungskonstante (n) und (iv) die Anzahl der Perioden vor der Prognose. Im Allgemeinen breiten sich die Intervalle schneller aus, da 945 im SES-Modell größer wird und sich viel schneller ausbreiten, wenn lineare statt einfache Glättung verwendet wird. Dieses Thema wird im Abschnitt "ARIMA-Modelle" weiter erläutert. (Zurück zum Seitenanfang.) Exponential Moving Average basierte Multiagent Verstärkung Lernalgorithmen Erste Online: 19 Oktober 2015 Zitieren Sie diesen Artikel als: Awheda, M. D. Schwartz, H. M. Artif Intell Rev (2016) 45: 299. doi: 10.1007 / s10462-015-9447-5 Zusammenfassung In dieser Arbeit werden zwei Multiprozessor-Policy-Iterations-Lernalgorithmen vorgeschlagen. Die beiden vorgeschlagenen Algorithmen verwenden die exponentielle gleitende durchschnittliche Ansatz zusammen mit dem Q-Learning-Algorithmus als Grundlage für die Aktualisierung der Politik für die Lern-Agent, so dass die Agenten-Politik konvergiert, um eine Nash-Gleichgewichtspolitik. Der erste vorgeschlagene Algorithmus verwendet eine konstante Lernrate, wenn die Richtlinie des Lernagens aktualisiert wird, während der zweite vorgeschlagene Algorithmus zwei unterschiedliche abklingende Lernraten verwendet. Diese zwei abklingenden Lernraten werden basierend auf dem Win-or-Learn-Fast (WoLF) - Mechanismus oder dem Win-or-Learn-Slow (WoLS) - Mechanismus aktualisiert. Der WoLS-Mechanismus wird in diesem Artikel eingeführt, um den Algorithmus schnell zu lernen, wenn er gewinnt und langsam lernen, wenn er verliert. Der zweite vorgeschlagene Algorithmus verwendet die Belohnungen, die vom lernenden Agenten empfangen werden, um zu entscheiden, welcher Mechanismus (WoLF-Mechanismus oder WoLS-Mechanismus) für das zu lernende Spiel verwendet wird. Die vorgeschlagenen Algorithmen wurden theoretisch analysiert und für jeden Algorithmus ein mathematischer Konvergenzbeweis für das reine Nash-Gleichgewicht bereitgestellt. Bei Spielen mit gemischtem Nash-Gleichgewicht zeigt unsere mathematische Analyse, dass der zweite vorgeschlagene Algorithmus zu einem Gleichgewicht konvergiert. Obwohl unsere mathematische Analyse nicht explizit zeigt, dass der zweite vorgeschlagene Algorithmus zu einem Nash-Gleichgewicht konvergiert, zeigen unsere Simulationsergebnisse, dass der zweite vorgeschlagene Algorithmus gegen das Nash-Gleichgewicht konvergiert. Die vorgeschlagenen Algorithmen werden auf einer Vielzahl von Matrix - und stochastischen Spielen untersucht. Simulationsergebnisse zeigen, dass der zweite vorgeschlagene Algorithmus in einer breiteren Vielfalt von Situationen konvergiert, als die modernsten Multi-Agenten-Verstärkungslernalgorithmen. Schlüsselwörter Multi-Agenten-Lernsysteme Reinforcement-Lernen Markov-Entscheidungsprozesse Nash-Gleichgewicht Referenzen Abdallah S, Lesser V (2008) Ein Multiagent-Verstärkungs-Lernalgorithmus mit nichtlinearer Dynamik. J Artif Intell Res 33: 521549 MathSciNet MATH Awheda MD, Schwartz HM (2013) Exponentiell gleitender Q-Lernalgorithmus. In: Adaptives dynamisches Programmierungs - und Verstärkungslernen (ADPRL), 2013 IEEE-Symposium on, IEEE, S. 3138. IEEE Awheda MD, Schwartz HM (2015) Der FACL-Algorithmus für Differenzialspiele. In Elektrotechnik und Informatik (CCECE). 2015 IEEE 28. Kanadische Konferenz über IEEE, pp 10061011. IEEE Banerjee B, Peng J (2007) Generalisierte Multiagent Lernen mit Performance gebunden. Auton Agents Multi-Agent Syst 15 (3): 281312 CrossRef Bellman R (1957) Dynamische Programmierung. Princeton University Press, Princeton MATH Bowling M (2005) Konvergenz und No-Reue im Multiagent Lernen. Adv Neural Inf Process Syst 17: 209216 Bowling M, Veloso M (2001a) Konvergenz der Gradientendynamik mit variabler Lernrate. In: ICML, pp 2734 Bowling M, Veloso M (2001b) Rationales und konvergentes Lernen in stochastischen Spielen. In: Internationale gemeinsame Konferenz über künstliche Intelligenz, vol. 17. Lawrence Erlbaum Associates Ltd, pp 10211026 Bowling M, Veloso M (2002) Multiagent-Lernen mit einer variablen Lernrate. Artif Intell 136 (2): 215250 CrossRef MathSciNet MATH Burkov A, Chaib-draa B (2009) Wirksames Lernen in Gegenwart adaptiver Gegenstücke. J Algorithmen 64 (4): 127138 CrossRef MathSciNet MATH Busoniu L, Babuska R, De Schutter B (2006) Multi-Agent Verstärkung Lernen: Eine Umfrage. In: Steuerung, Automatisierung, Robotik und Vision, 2006. ICARCV06. 9. Internationale Konferenz über IEEE, pp 16. IEEE Busoniu L, Babuska R, De Schutter B (2008) Eine umfassende Übersicht über das Multiagent Verstärkungslernen. Syst Man Cybern Teil C: Appl Rev, IEEE Trans 38 (2): 156172 CrossRef Claus C, Boutilier C (1998) Die Dynamik des Bewehrungslernens in kooperativen Multiagentensystemen. In: AAAI / IAAI, pp 746752 Conitzer V, Sandholm T (2007) Ehrfürchtig: Ein allgemeiner Algorithmus, der im Selbstspiel konvergiert und eine beste Reaktion gegen stationäre Gegner erlernt. (2005) Ein Ansatz zur Abstimmung von Fuzzy-Controllern auf der Basis von Bewehrungslernen für die autonome Fahrzeugkontrolle. Intell Transp Syst, IEEE Trans 6 (3): 285293 CrossRef DAngelo H (1970) Lineare zeitvariable Systeme: Analyse und Synthese. Allyn amp Bacon, Newton MATH DeCarlo RA (1989) Lineare Systeme: ein Zustandsvariablenansatz mit numerischer Implementierung. Prentice-Hall Inc, Oberer Saddle-Fluss Dixon W (2014) Optimale adaptive Kontroll - und Differentialspiele durch Bewehrungs-Lernprinzipien. J Guid Control Dyn 37 (3): 10481049 CrossRef Fulda N, Ventura D (2007) Vorhersage und Vermeidung von Koordinationsproblemen in kooperativen Q-Lernsystemen. In: IJCAI, vol. 2007, pp 780785 Gutnisky DA, Zanutto BS (2004) Lernhindernisvermeidung mit einem operativen Verhaltensmodell. Artif Life 10 (1): 6581 CrossRef Hinojosa W, Nefti S, Kaymak U (2011) Systemsteuerung mit generalisiertem probabilistischen Fuzzy-Verstärkungslernen. Fuzzy Syst, IEEE Trans 19 (1): 5164 CrossRef Howard RA (1960) Dynamische Programmierung und Markov-Prozesse. MIT-Presse, Cambridge Hu J, Wellman MP (2003) Nash Q-Lernen für allgemeine Summe stochastische Spiele. J Machman Learn 4: 10391069 MathSciNet Hu J, Wellman MP, et al (1998) Multiagent Verstärkungslernen: Theoretischer Rahmen und ein Algorithmus. In: ICML, vol. 98, Citeseer, pp 242250 Kaelbling LP, Littman ML, Moore AW (1996) Verstärkung Lernen: eine Umfrage. J Artif Intell Res 4: 237285 Kondo T, Ito K (2004) Ein Verstärkungslernen mit evolutionärer Rekrutierungsstrategie für autonome mobile Robotersteuerung. Robot Auton Syst 46 (2): 111124 CrossRef Luo B, Wu H-N, Li H-X (2014a) Datenbasiertes suboptimales Neuro-Control-Design mit Bewehrungslernen für dissipative räumlich verteilte Prozesse. (2014b) Datenbasierte Approximationsrichtungsiteration für eine nichtlineare kontinuierliche Optimierung des optimalen Steuerungsdesigns. Automatisches 50 (12): 32813290 CrossRef MathSciNet Luo B, Wu H-N, Huang T (2015a) Offpolitisches Verstärkungslernen für (H) Kontrolldesign. Cybern, IEEE Trans 45 (1): 6576 CrossRef Luo B, Wu H-N, Li H-X (2015b) Adaptive optimale Steuerung hoch dissipativer nichtlinearer räumlich verteilter Prozesse mit neurodynamischer Programmierung. Neuronales Netw Learn System, IEEE Trans 26 (4): 684696 CrossRef Luo B, Huang T, Wu H-N, Yang X (2015c) Datengesteuerte (H) Steuerung für nichtlineare verteilte Parametersysteme. Neuronales Netw Learn Syst, IEEE Trans 26 (11): 29492961 Luo B, Wu H-N, Huang T, Liu D (2015d) Verstärkungslernende Lösung für die HJB-Gleichung, die sich in einem beschränkten optimalen Kontrollproblem ergibt. Neuronales Netw 71: 150158 CrossRef Modares H, Lewis FL, Naghibi-Sistani M-B (2014) Integrales Verstärkungslernen und Erfahrungswiedergabe zur adaptiven optimalen Steuerung von partiell unbekannten zeitlich beschränkten Eingängen. Automatica 50 (1): 193202 CrossRef MathSciNet MATH Rodrguez M, Iglesias R, Regueiro Lebenslauf, Correa J, Barro S (2007) Autonomes und schnelles Lernen durch Motivation. Roboter Auton Syst 55 (9): 735740 CrossRef Schwartz HM (2014) Multi-Agent Machine Learning: Ein Bewehrungsansatz. Wiley, New York CrossRef Sen S, Sekaran M, Hale J (1994) Koordination ohne Austausch von Informationen. In: AAAI, pp 426431 Singh S, Kearns M, Mansour Y (2000) Nash-Konvergenz der Gradientendynamik in allgemeinen Summenspielen. In: Verfahren der sechzehnten Konferenz zur Unsicherheit in der künstlichen Intelligenz, pp 541548 Smart WD, Kaelbling LP (2002) Wirksames Bewehrungslernen für mobile Roboter. In: Robotik und Automatisierung. Verfahren. ICRA02. IEEE Internationale Konferenz über Vol. 4, IEEE, 2002, S. 34043410. IEEE Sutton RS, Barto AG (1998) Verstärkung Lernen: eine Einführung. Die MIT Press, Cambridge Tan M (1993) Multi-Agent Verstärkung Lernen: Unabhängige vs kooperative Agenten. In: Proceedings of the zenth international conference on machine learning, pp 330337 Tesauro G (2004) Erweiterung des Q-Lernens auf allgemein adaptive Multi-Agenten-Systeme. In: Fortschritte in neuronalen Informationsverarbeitungssystemen, Bd. 16. MITPRESS, pp 871878 Thathachar MA, Sastry PS (2011) Netzwerke von Lernautomaten: Techniken zur Online-stochastischen Optimierung. Springer, Boston Watkins CJ, Dayan P (1992) Q-Lernen. Mach Learn 8 (34): 279292 MATH Watkins CJCH (1989) Lernen aus verzögerten Belohnungen, Ph. D. Dissertation, Universität Cambridge England Weiss G (1999) Multiagentensysteme: ein moderner Ansatz für verteilte künstliche Intelligenz. MIT Press Wu H-N, Luo B (2012) Neuronaler Netzwerk-basierter Online-Algorithmus zur gleichzeitigen Aktualisierung von Richtlinien zur Lösung der HJI-Gleichung bei der nichtlinearen Steuerung. Neuronales Netw Learn Syst, IEEE Trans 23 (12): 18841895 CrossRef MathSciNet Ye C, Yung NH, Wang D (2003) Ein Fuzzy-Controller mit überwachtes Lernen unterstützte Verstärkung Lernalgorithmus für Hindernisvermeidung. Syst Man Cybern Teil B: Cybern, IEEE Trans 33 (1): 1727 CrossRef Zhang C, Lesser VR (2010) Multi-Agent-Lernen mit Richtlinienvorhersage. In: AAAI Copyright-Informationen Springer ScienceBusiness Media Dordrecht 2015 Autoren und Mitgliedsorganisationen Mostafa D. Awheda 1 Email-Autor Howard M. Schwartz 1 1. Institut für Systemtechnik und Computertechnik Carleton University Ottawa Kanada Über diesen Artikel


No comments:

Post a Comment