Wednesday 22 November 2017

Exponentiell Gewichteter Gleitender Mittelalgorithmus


Ich möchte einen iterativen Algorithmus implementieren, der den gewichteten Durchschnitt berechnet. Das spezifische Gewicht Gesetz spielt keine Rolle, aber es sollte in der Nähe von 1 für die neuesten Werte und in der Nähe von 0 zu den ältesten. Der Algorithmus sollte iterativ sein. D. h. es sollte sich nicht an alle vorherigen Werte erinnern. Es sollte nur einen neuesten Wert und alle aggregativen Informationen über Vergangenheit, wie vorherige Werte des Durchschnitts, Summen, Zählimpulse usw. wissen. Zum Beispiel kann der folgende Algorithmus sein: Es gibt exponentielle abnehmende Gewicht, das nicht gut sein kann. Ist es möglich, Schritt abnehmende Gewicht oder etwas Die Anforderungen für das Wiegen Gesetz ist folgende: 1) Das Gewicht sinkt in die Vergangenheit 2) Ich habe einige mittlere oder charakteristische Dauer, so dass Werte älter diese Dauer viel weniger wichtig als neuere 3) I Sollte in der Lage, diese Dauer Ich brauche die folgenden. Angenommen, vi sind Werte, wobei v1 die erste ist. Nehmen wir auch an, dass wi Gewichte sind. Aber w0 ist das letzte. Also, nach dem ersten Wert kam ich erstmal nach dem zweiten Wert v2 kam, hätte ich durchschnittlich Beim nächsten Wert sollte ich beachten, dass sich das Gewichtsprofil mit mir bewegt, während ich mich entlang der Wertsequenz befinde. D. h. Jeder Wert hat nicht sein eigenes Gewicht die ganze Zeit. Mein Ziel ist es, dieses Gewicht zu senken, während Sie Vergangenheit. Gt Aber meine Aufgabe ist es, durchschnittlich neu berechnet jedes Mal neue Wert kommt mit alten Werten wiedergewichtet. OP Ihre Aufgabe ist fast immer unmöglich, auch bei außergewöhnlich einfachen Gewichtungsregelungen. Sie fragen, mit O (1) Speicher, Ertragsdurchschnitte mit einem sich ändernden Gewichtungsschema. Zum Beispiel, wenn neue Werte übergeben werden, für eine nahezu beliebig wechselnde Gewichtsfolge. Dies ist aufgrund der Injektivität unmöglich. Sobald Sie zusammen die Zahlen zusammen, verlieren Sie eine riesige Menge an Informationen. Zum Beispiel, auch wenn Sie die Gewicht-Vektor hatte. Können Sie den ursprünglichen Wertvektor nicht wiederherstellen oder umgekehrt. Es gibt nur zwei Fälle, die ich denken kann, wo Sie weg mit diesem erhalten konnten: Konstante Gewichte wie 2,2,2. 2: Dies ist äquivalent zu einer Online-Algebra, die Sie nicht wollen, weil die alten Werte nicht wiedergewichtet werden. Die relativen Gewichte der vorherigen Antworten ändern sich nicht. Zum Beispiel könnten Sie Gewichte von 8,4,2,1 zu tun. Und fügen Sie in ein neues Element mit beliebigem Gewicht wie. 1. aber Sie müssen alle vorherigen um den gleichen multiplikativen Faktor, wie 16,8,4,21 erhöhen. So fügen Sie bei jedem Schritt ein neues willkürliches Gewicht und eine neue willkürliche Neuskalierung der Vergangenheit hinzu, sodass Sie 2 Freiheitsgrade haben (nur 1, wenn Sie Ihr Dot-Produkt normalisieren müssen). Die Gewicht-Vektoren youd erhalten würde aussehen: So jede Gewichtung Schema können Sie sehen, wie das funktioniert (es sei denn, Sie müssen die Sache normalisiert durch die Summe der Gewichte zu halten, in diesem Fall müssen Sie dann teilen den neuen Durchschnitt durch die neue Summe, die Sie berechnen können, indem Sie nur O (1) Speicher behalten). Multiplizieren Sie einfach den vorherigen Durchschnitt mit den neuen s (die sich implizit über das Punktprodukt in die Gewichte verteilen) und tack auf den neuen wnewValue. Antwort # 1 am: April 22, 2011, 09:31:01 pm »Hier Im Angenommen, Sie wollen, dass die Gewichte zu 1 zu summieren. Solange Sie ein relatives Gewicht erzeugen können, ohne es in der Zukunft ändern, können Sie am Ende mit einer Lösung, die dieses Verhalten imitiert. Das heißt, Sie haben Ihre Gewichte als Sequenz definiert und die Eingabe als Sequenz definiert. Betrachten Sie die Form: sum (s0i0 s1i1 s2i2 snin) sum (s0 s1 s2 sn). Beachten Sie, dass es trivial möglich ist, dies inkrementell mit ein paar Aggregationszähler zu berechnen: Natürlich berechnet calculateWeightFromCounter () in diesem Fall nicht Gewichte, die Summe zu einem - der Trick hier ist, dass wir durch Division durch die Summe der Gewichte durchschnittlich So daß letztlich die Gewichte praktisch zusammenfallen. Der eigentliche Trick ist, wie Sie berechnenWeightFromCounter (). Sie könnten einfach zurückkehren, zum Beispiel, aber beachten Sie, dass die letzte gewichtete Zahl nicht in der Nähe der Summe der Zähler unbedingt, so dass Sie möglicherweise nicht am Ende mit den genauen Eigenschaften, die Sie wollen. (Sein schwer zu sagen, da, wie erwähnt, haben Sie ein ziemlich offenes Problem verlassen.) Das Problem ist, dass Gewichte mit jedem neuen Wert ändern. In Ihrem Fall sind sie nicht. Ndash Suzan Cioc Die tatsächlichen verwendeten Gewichte ändern sich mit jedem neuen Wert - die quotweightsquot werden durch eine sukzessive größere Zahl geteilt, wodurch die Durchsetzung, dass die tatsächlichen verwendeten Gewichte immer auf 1. ndash Kaganar Mar 29 12 Um 14:45 Dies ist zu lang, um in einem Kommentar posten, aber es kann nützlich sein, zu wissen. Angenommen, Sie haben: w0vn. Wnv0 (nennen wir diese w0..nvn..0 kurz) Dann ist der nächste Schritt: w0vn1. Wn1v0 (und dies ist w0..n1vn1..0 für kurze) Dies bedeutet, dass wir einen Weg brauchen, um w1..n1vn..0 aus w0..nvn..0 zu berechnen. Es ist sicher möglich, daß vn.0 0. 0, z, 0. 0 ist, wobei z an einer Stelle x ist. Wenn wir keine zusätzliche Speicherung haben, dann ist f (zw (x)) zw (x 1) wobei w (x) das Gewicht für die Stelle x ist. Umordnen der Gleichung w (x 1) f (zw (x)) z. Nun ist w (x 1) besser konstant für eine Konstante x, also ist f (zw (x)) z besser konstant. Damit kann f z fortpflanzen - dh f (zw (x)) zf (w (x)). Aber hier haben wir wieder ein Problem. Beachten Sie, dass wenn z (was eine beliebige Zahl sein könnte) durch f ausbreiten kann. Dann kann w (x) sicherlich. Also ist f (zw (x)) w (x) f (z). Somit ist f (w (x)) w (x) f (z). Aber für eine konstante x. W (x) konstant ist und somit auch f (w (x)) besser konstant ist. W (x) konstant ist, so daß f (z) konstanter ist, so daß w (x) f (z) konstant ist. Somit ist f (w (x)) w (x) c, wobei c eine Konstante ist. Also, f (x) cx wobei c eine Konstante ist, wenn x ein Gewichtswert ist. Das heißt, jedes Gewicht ist ein Vielfaches des vorherigen. Somit nehmen die Gewichte die Form w (x) mbx an. Beachten Sie, dass dies davon ausgeht, dass die einzige Information, die f ist, der letzte aggregierte Wert ist. Beachten Sie, dass an einem gewissen Punkt werden Sie auf diesen Fall reduziert werden, wenn Sie nicht bereit sind, eine nicht konstante Menge an Daten, die Ihre Eingabe zu speichern. Sie können nicht einen unendlichen Längenvektor der reellen Zahlen mit einer reellen Zahl darstellen, aber Sie können sie irgendwie in einer konstanten, endlichen Menge an Speicherung annähern. Aber das wäre nur eine Annäherung. Obwohl ich havent rigoros bewiesen, es ist meine Schlussfolgerung, dass, was Sie wollen, ist unmöglich, mit einem hohen Grad an Präzision zu tun, aber Sie können in der Lage, log (n) Raum (die auch O (1) für viele sein kann Praktische Anwendungen), um eine Qualitätsnäherung zu erzeugen. Sie können sogar noch weniger verwenden. Ich habe versucht, praktisch Code etwas (in Java). Wie gesagt, Ihr Ziel ist nicht erreichbar. Sie können nur den Durchschnitt aus einer Anzahl von zuletzt gespeicherten Werten zählen. Wenn Sie nicht genau sein müssen, können Sie die älteren Werte approximieren. Ich habe versucht, es durch die Erinnerung an die letzten 5 Werte genau und ältere Werte nur SUMmed durch 5 Werte, die Erinnerung an die letzten 5 SUMs. Dann ist die Komplexität O (2n) zum Speichern der letzten nnn Werte. Dies ist eine sehr grobe Annäherung. Sie können die Arraygrößen lastValues ​​und lasAggregatedSums beliebig ändern. Sehen Sie dieses Ascii-Kunstbild, das versucht, ein Diagramm der letzten Werte anzuzeigen, das zeigt, dass die ersten Spalten (ältere Daten) als aggregierter Wert (nicht einzeln) gespeichert werden und nur die frühesten 5 Werte einzeln gespeichert werden. Herausforderung 1. Mein Beispiel zählt keine Gewichte, aber ich denke, es sollte kein Problem für Sie, Gewichte für die lastAggregatedSums angemessen hinzufügen - das einzige Problem ist, dass, wenn Sie niedrigere Gewichte für ältere Werte wollen, wäre es schwieriger, weil das Array dreht, so ist Es ist nicht einfach zu wissen, welches Gewicht für welche Array-Mitglied. Vielleicht können Sie den Algorithmus ändern, um immer verschieben Werte im Array anstatt zu drehen Dann Hinzufügen von Gewichten sollte kein Problem sein. Herausforderung 2. Die Arrays werden mit 0 Werten initialisiert, und diese Werte zählen bis zum Mittelwert von Anfang an, auch wenn wir nicht genug Werte erhalten. Wenn Sie den Algorithmus für lange Zeit laufen, werden Sie wahrscheinlich nicht stören, dass es das Lernen für einige Zeit am Anfang. Wenn Sie dies tun, können Sie eine Änderung -) Antwort # 2 am: Januar 21, 2010, um 15:59 Uhr Ihre Antwort 2017 Stack Exchange, IncExploring der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächlichen Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Also, wenn alpha (a) ein Gewichtungsfaktor (speziell eine 1m) ist, dann eine einfache Varianz sieht etwa so aus: Die EWMA verbessert auf einfache Varianz Die Schwäche dieser Ansatz ist, dass alle Renditen das gleiche Gewicht zu verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Tageskursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit verringern, so dass eine einfache Varianz künstlich hoch sein könnte. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkenden Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Ich habe im Wesentlichen ein Array von Werten wie folgt: Das obige Array ist oversimplified, Im sammeln 1 Wert pro Millisekunde in meinem realen Code und ich muss die Ausgabe auf verarbeiten Ein Algorithmus, den ich schrieb, um den nächsten Peak vor einem Zeitpunkt zu finden. Meine Logik schlägt fehl, weil in meinem Beispiel oben 0.36 die wahre Spitze ist, aber mein Algorithmus würde rückwärts schauen und sehen die sehr letzte Zahl 0.25 als die Spitze, als theres eine Abnahme zu 0.24 vor ihm. Das Ziel ist, diese Werte zu nehmen und einen Algorithmus auf sie, die glätten sie ein wenig, so dass ich mehr lineare Werte. (Dh: Id wie meine Ergebnisse curvy, nicht jaggedy) Ive wurde gesagt, um einen exponentiellen gleitenden durchschnittlichen Filter auf meine Werte anzuwenden. Wie kann ich dies tun Es ist wirklich schwer für mich, mathematische Gleichungen zu lesen, gehe ich viel besser mit Code. Wie verarbeite ich Werte in meinem Array, die Anwendung einer exponentiellen gleitenden Durchschnittsberechnung, um sie herauszufordern, um einen exponentiellen gleitenden Durchschnitt zu berechnen. Müssen Sie einige Zustand zu halten und Sie benötigen einen Tuning-Parameter. Dies erfordert eine kleine Klasse (vorausgesetzt, Sie verwenden Java 5 oder höher): Instantiate mit dem Decay-Parameter, die Sie wollen (kann Abstimmung sollte zwischen 0 und 1) und dann mit Average () zu filtern. Beim Lesen einer Seite auf einige mathematische Rekursion, alles, was Sie wirklich wissen müssen, wenn Sie es in Code ist, dass Mathematiker gerne Indizes in Arrays und Sequenzen mit Indizes schreiben. (Theyve einige andere Anmerkungen außerdem, die nicht helfen.) Jedoch ist die EMA ziemlich einfach, da Sie nur an einen alten Wert erinnern müssen, der keine komplizierten Zustandarrays erfordert. Beantwortet Feb 8 12 at 20:42 TKKocheran: Ziemlich viel. Isn39t es schön, wenn die Dinge einfach sein können (Wenn Sie mit einer neuen Sequenz beginnen, erhalten Sie einen neuen Mittelwert.) Beachten Sie, dass die ersten paar Begriffe in der gemittelten Sequenz um ein bisschen durch Randeffekte springen, aber Sie erhalten diese mit anderen gleitenden Durchschnitten auch. Allerdings ist ein guter Vorteil, dass Sie die gleitende durchschnittliche Logik in die Mittelung einwickeln und experimentieren können, ohne den Rest des Programms zu viel zu stören. Ndash Donal Fellows Ich habe eine harte Zeit, Ihre Fragen zu verstehen, aber ich werde versuchen, trotzdem zu beantworten. 1) Wenn Ihr Algorithmus 0,25 statt 0,36 gefunden hat, dann ist es falsch. Es ist falsch, weil es eine monotone Zunahme oder Abnahme (das ist immer nach oben oder immer nach unten). Wenn Sie ALLE Ihre Daten nicht klassifizieren, sind Ihre Datenpunkte - wie Sie sie darstellen - nichtlinear. Wenn Sie wirklich den maximalen Wert zwischen zwei Zeitpunkten finden wollen, dann schneiden Sie Ihr Array von tmin zu tmax und finden Sie das Maximum dieses Unterarrays. 2) Nun ist das Konzept der gleitenden Durchschnitte sehr einfach: vorstellen, dass ich die folgende Liste haben: 1.4, 1.5, 1.4, 1.5, 1.5. Ich kann es glätten, indem ich den Durchschnitt von zwei Zahlen: 1.45, 1.45, 1.45, 1.5. Beachten Sie, dass die erste Zahl ist der Durchschnitt von 1,5 und 1,4 (zweite und erste Zahlen) die zweite (neue Liste) ist der Durchschnitt von 1,4 und 1,5 (dritte und zweite alte Liste) die dritte (neue Liste) der Durchschnitt von 1,5 und 1,4 (Vierte und dritte), und so weiter. Ich könnte es Zeitraum drei oder vier gemacht haben, oder n. Beachten Sie, wie die Daten viel glatter sind. Ein guter Weg, um zu sehen, gleitende Durchschnitte bei der Arbeit ist, gehen Sie zu Google Finance, wählen Sie eine Aktie (versuchen Tesla Motors ziemlich volatil (TSLA)) und klicken Sie auf Technische Daten am unteren Rand des Diagramms. Wählen Sie Moving Average mit einer bestimmten Periode und Exponential gleitenden Durchschnitt, um ihre Differenzen zu vergleichen. Exponentielle gleitende Durchschnitt ist nur eine weitere Ausarbeitung dieser, aber Gewichte die älteren Daten weniger als die neuen Daten ist dies ein Weg, um die Glättung nach hinten auszugleichen. Bitte lesen Sie den Wikipedia-Eintrag. Also, dies ist eher ein Kommentar als eine Antwort, aber die kleine Kommentar-Box war nur zu klein. Viel Glück. Wenn Sie Probleme mit der Mathematik haben, könnten Sie mit einem einfachen gleitenden Durchschnitt statt exponentiell gehen. Also die Ausgabe erhalten Sie die letzten x-Terme durch x geteilt werden. Ungetestetes Pseudocode: Beachten Sie, dass Sie die Anfangs - und Endteile der Daten behandeln müssen, da deutlich, dass Sie die letzten 5 Ausdrücke nicht durchschnittlich sind, wenn Sie auf Ihrem 2. Datenpunkt sind. Außerdem gibt es effizientere Methoden, diesen gleitenden Durchschnitt (sum sum - älteste neueste) zu berechnen, aber dies ist, um das Konzept von dem, was passiert, zu bekommen. Beantwortet Feb 8 12 at 20:41 Deine Antwort 2017 Stack Exchange, Inc

No comments:

Post a Comment