Wikia

VroniPlag Wiki

Mh/Fragment 221 09

< Mh

31.144Seiten in
diesem Wiki
Diskussion7


Typus
ÜbersetzungsPlagiat
Bearbeiter
Lukaluka, Hindemith
Gesichtet
Yes.png
Untersuchte Arbeit:
Seite: 221, Zeilen: 9-20
Quelle: LeBaron 1998
Seite(n): 4, Zeilen: 6-16
Im Ergebnis zeigt dieses Modell, dass der genetische Algorithmus grundsätzlich in der Lage ist, den optimalen Aktienanteil im Portfolio zu lernen. Andererseits sind auch einige Einschränkungen zu betrachten. Zunächst scheint die Wahl von S einen wichtigen Effekt auszulösen. Es kann gezeigt werden, dass die Agenten systematisch ein zu hohes optimales \alpha schätzen, nämlich

\alpha^{**} = \arg\max\limits_{\alpha_i}\sum\limits_{j=1}^S U_{\alpha_i}(w_j)

mit  E ( \alpha^{**} ) \neq \alpha^{*} , d.h. die Agenten halten tendenziell zu viele Aktien in ihrem Portfolio. Dies erklärt sich daraus, dass risikoreichere Strategien entweder aufgrund besonderen Erfolges oder besonderen Misserfolges besonders hohe oder besonders niedrige Fitnesswerte aufweisen und konservative Strategien im mittleren Wertebereich zu finden sind. Daher werden durch den genetischen Algorithmus glückliche, jedoch nicht notwendigerweise gehaltvolle Strategien ausgewählt. Lässt man jedoch S gegen Unendlich gehen, so konvergiert auch dieser Bias gegen Null.[FN 254]

[FN 254] Solche Biases, die auf der Wahl bestimmter Größen von Stichproben basieren, sind auch in der Statistik wohl bekannt und schlagen sich natürlich auch in der Welt der Simulationen nieder; vgl. zu einem anderen Beispiel etwa Benink und Bossaerts (2001).

In general, Lettau’s results show that the GA is able to learn the optimum portfolio weight. However, there is an interesting bias. He finds that the optimal rules have a value for α which is greater than the optimal \alpha^* . This bias implies that they generally will be holding more of the stock than their preferences would prescribe. This is because agents are choosing

\alpha^{**} = \arg\max\limits_{\alpha_i}\sum\limits_{j=1}^S U_{\alpha_i}(w_j),

and  E ( \alpha^{**} ) \neq \alpha^{*} . Intuitively, the reason is quite simple. Over any finite sample, S, there will be a set of rules that do well because they faced a favorable draw of dividends. Those that took risks and were lucky will end up at the top of the fitness heap. Those that took risks and were unlucky will be at the bottom, and the conservative rules will be in the middle. As the GA evolves, this continues to suggest a selection pressure for lucky, but not necessarily skillful strategies. Pushing S to infinity exposes agents to more trials, and the chances of performing well do [sic!] to chance go to zero. Lettau shows that for very large S, the bias does indeed get close to zero as expected.

Anmerkungen
  • Relativ freie Übernahme der Argumentation und der Formeln, jedoch kein Quellenverweis * Mh vergisst beim optimalen \alpha einmal den Stern *.
Sichter
Hindemith

Aus dem Wikia-Netzwerk

Zufälliges Wiki