von Michael Heun
Statistik und Sichtungsnachweis dieser Seite findet sich am Artikelende
[1.] Mh/Fragment 220 01 - Diskussion Zuletzt bearbeitet: 2012-04-08 09:28:20 Kybot | Fragment, Gesichtet, LeBaron 2005, Mh, SMWFragment, Schutzlevel sysop, ÜbersetzungsPlagiat |
|
Untersuchte Arbeit: Seite: 220, Zeilen: 1-19, 101-111 |
Quelle: LeBaron 2005 Seite(n): 15-16, Zeilen: 15-29; 1-9 |
---|---|
[Das Vermögen in der zweiten Periode ergibt sich gemäß
wobei die Anzahl der gehaltenen Aktien darstellt. Dies ist die einzige Variable, die der Agent selbst festlegen kann, so dass das Ziel in einer möglichst guten Wahl von besteht. Aus den Annahmen ergibt sich der zu maximierende Nutzen in der zweiten Periode zu wobei den Koeffizienten der absoluten Risikoaversion darstellt.[FN 249] Daraus ergibt sich für eine bekannte Verteilung der Dividende die optimale Lösung für als lineare Fünktion des Preises und des Mittelwertes der Dividende gemäß [FN 250] und kann als Benchmark verwendet werden. Damit besteht das Ziel eines Agenten darin, für sein Funktional das optimale zu lernen. Als Lernalgorithmus wird dazu ein genetischer Algorithmus verwendet. [FN 251] Es werden S Perioden simuliert, in denen jeweils neue zufällige unabhängige Werte der Dividende gemäß der vorgegebenen Verteilung gezogen werden. Dabei verwendet jeder Agent einer Population der Größe sein über alle Perioden und nach jeweils Perioden wird der genetische Algorithmus durchlaufen. Die Übersetzung der Bitstrings [FN 252] in reelle Zahlen erfolgt gemäß der (Standard-) Konvention wobei den Bitstring der (aktuellen) Strategie des Agenten darstellt und im Intervall [min, max] liegt. Für jeden Agenten wird im Rahmen [des genetischen Algorithmus ein Fitnesswert über die Perioden als Summe aus den Nutzenwerten der jeweiligen Vermögen ...] [FN 249] Vgl. dazu auch die Ausführungen auf S. 36 dieser Arbeit. Dort wurde der Koeffizient mit bezeichnet. Da sich in der in diesem Kapitel relevanten Literatur der Buchstabe a als Bezeichnung innerhalb der Lösung etabliert hat, wird hier dieser Nomenklatur gefolgt. [FN 250] In früheren Versionen untersuchte Lettau auch andere, kompliziertere Punktionen mit dem Ergebnis, dass die Konvergenzgeschwindigkeit sinkt, da mehr Parameter zu lernen sind. [FN 251] Die genetischen Algorithmen wurden von Holland (1975) entwickelt und gehören zur Familie der evolutionären Algorithmen. Für einen Überblick über evolutionäre Methoden vgl. etwa Fogel (1995) sowie Bäck (1996). Speziell zur Funktionsweise genetischer Algorithmen vgl. etwa Roßbach und Heun (2006). Dieser Ansatz findet in Multiagentensystemen, insbesondere auch im Kontext von Finanzmarktsimulationen, recht häufig Verwendung als Lernmechanismus. [FN 252] Ein Bitstring stellt eine Folge von Nullen und Einsen dar. |
and their preferences are assumed to exhibit constant absolute risk aversion which can be parameterized as in,
This is clearly a very simplified market. No attempt is made to look at the feedback from agents’ demands to returns on the risky asset. There is no consumption, and wealth is not linked to agents’ impact on asset prices, or evolution. However, it is a very straightforward test of learning in a financial market. Given the normally distributed dividend process, there is a well-known optimal solution to the portfolio problem given by, where is the variance of the random dividend payout. The main exercise in Lettau’s paper is to see if and when agents are able to learn this optimal portfolio strategy using a genetic algorithm. In general, agents’ policy functions could take the form of [p. 14] but Lettau simplifies this by using the optimal linear functional form for agent i, This gives the agents a head start on the portfolio problem, but they still need to learn the optimal .[FN 28] The market is run for periods with new independent draws of the dividend for each period. Each agent continues to use the portfolio determined by , which remains fixed. At the end of each block of the genetic algorithm (GA) is run, and the set of agent parameters is redrawn. Agents are parameterized with a bitstring encoding given by where is the bitstring for the strategy of agent . [FN 28] A more complicated functional form is tried, but the only change is that convergence is slowed down by the need to learn more parameters. |
|
|
Letzte Bearbeitung dieser Seite: durch Benutzer:Lukaluka, Zeitstempel: 20120117043012