Az algoritmusok háborúja a tőzsdén

Az algoritmusok háborúja a tőzsdén

2007. június 17. 12:10, Vasárnap
Csendes forradalom megy végbe a pénzügyi világban. Az egymásra licitáló brókerek nyüzsgését a szerverek zümmögése vette át, kivesznek a Gordon Gekko félék akik válogatott szidalmakkal próbálnak megszabadulni elértéktelenedõ részvényeiktõl. A befektetõk rájöttek, a számítógépek adatfeldolgozási sebessége és az általuk végrehajtható ügyletek puszta mennyisége a legdörzsöltebb brókert is lepipálja.

Ennek eredményeként elképesztõ pénzeket ölnek a pénzvilágban zajló fegyverkezési versenybe, melynek célja a legjobb algoritmusos kereskedõ rendszer kifejlesztése, egy olyan szoftveré, ami segít dönteni, mely ügyletek a legnyereségesebbek, majd másodpercek alatt meg is köti az üzletet. Tíz éve az algoritmusos kereskedés fogalma még teljesen ismeretlen volt, ma viszont egy nemrég napvilágot látott jelentés szerint az amerikai tõzsdéken a döntések egyharmadát gépek hozzák, 2010-re pedig ez az arány meghaladja az 50%-ot.

A Deutsche Bank valutakereskedelmének 70%-át gépek intézik, méghozzá emberi beavatkozás nélkül, nap mint nap. Nem nehéz megmondani miért vált ilyen felkapottá az algoritmusos kereskedelem. A gépek képesek egy idõben több ügyletet is bonyolítani, ezernyi részvényt figyelemmel kísérni, mindezt elképesztõ sebességgel, és ami legalább ilyen fontos, feltûnés nélkül. A legnagyobb üzlet azokban a részvényekben rejlik, amikre a többi kereskedõ még nem csapott le. Minél diszkrétebben sikerül egy ilyen ügyletet végrehajtani - például sok kis ügyletbe ágyazva - annál kisebb az esély, hogy a vetélytársak is felismerjék a lehetõséget és elszipkázzanak a profitunkból. Egy ember erre szinte képtelen, annyi munka, figyelem és utánajárás szükséges a cél megvalósításához, a befektetõ házak éppen ezért egyre inkább a technika felé fordultak.

Az 1990-es évek elején a Wall Street brókerei között az számított sikeresnek, aki rendelkezett egyfajta "ösztönnel", szinte együtt lélegzett a piaccal, megérezve a változásokat és mindezt rendkívül gyorsan le is tudta reagálni, a megfelelõ pillanatban csapva le a kínálkozó alkalmakra. Ekkoriban a számítógépek egyszerû kommunikációs eszközök voltak, ahol az volt a siker, ha valaki akárcsak tizedmásodpercekkel hamarabb nyomott meg egy gombot kollégájánál.

A gépek egy évtized alatt hatalmasat fejlõdtek, olyannyira, hogy a tõzsdén a szén helyét már át is vette a szilícium. Az ember képtelen tartani az ütemet, pedig egy bróker is képes néhány száz milliszekundum alatt dönteni, egy gépi kereskedõ azonban ezt legalább tízszer gyorsabban végzi el. Bár nagyon parányi idõkülönbségekrõl van szó, ezek dollármilliókat jelenthetnek. Ma a kulcsszó az "alacsony várakozási idejû hozzáférés".

A kereskedõk ultragyors szoftverekkel felszerelkezve, a piacon kapható legjobb gépekkel, rengeteg memóriával vágnak neki a tõzsdepiacnak, azonban van ennél sokkal közvetlenebb és talán kevésbé kézenfekvõ módja is a sebesség növelésének: minél közelebb kerülni a forráshoz. A kereskedõ cégek óriási pénzeket fordítanak szervereik közelebb helyezéséhez. Az ilyen "közeli szerverekkel" lehagyhatjuk a riválisok elektronjait, amire lehet fejet csóválni, az azonban tény, hogy az algoritmus-alapú kereskedelem egyik legnagyobb elkötelezettje, a Deutsche Bank jelentõs összeget fizetett a szervereket ellátó BT Radianznak, hogy milliszekundumokat faragjon le kereskedési idejébõl.

A gépek egy másik területen is kiszorították az embereket, ez pedig a rejtett kereskedés. A vezetõ brókercégek többsége számítógépein úgynevezett mennyiség-súlyozott átlagár algoritmusokat futtat. Ezek felszeletelik a nagy tranzakciókat, majd korlátozzák a vásárlások és eladások számát az adott papír aznapi összes kereskedelmének adott hányadának függvényében. Az elv a fentebb már említett "ne keltsük fel a többi kereskedõ figyelmét az általunk kipécézett részvénycsomagra" címû mutatványon alapul, vagyis alapulna, ha idõközben a leleményes programozók nem csöpögtettek volna egy kis darwini szükségszerûséget a mechanizmusba.

Kezdetben a tranzakció-szeletelõ programok nagy lökést adtak a kereskedéseknek, mára azonban ez elpárolgott. Megjelentek az algoritmus figyelõ szoftverek, melyek késõbb már arra is képessé váltak, hogy megbecsüljék az elrejteni kívánt ügyletben szereplõ papírok összértékét. Ellencsapásként jöttek a ködösítõ algoritmusok, ezek már kismértékû véletlenszerûséggel kombinálták stratégiáikat, kevésbé szabályossá téve például a kereskedések idõpontját. Persze egy jól megírt szoftver ezeket is képes megtalálni. A pénzügyi fegyverkezési hajsza ezen frontján lassan patthelyzet alakult ki annak a ténynek köszönhetõen, hogy létezik egy korlát a tranzakciók méretét és véletlenszerûségét illetõen.

A fenti algoritmusok mellett létezik egy úgynevezett "orvlövész" is, ami igyekszik az alkalmazója szempontjából lehetõ legjobb pillanatban megszabadulni adott részvényektõl, vagy éppen vásárolni, ami kivárva a megfelelõ vevõt vagy eladót lecsap rá, és a lehetõ leggyorsabban lezavarja az ügyletet.

Az algoritmusok harcának köszönhetõen ha valaki nagy profitra vágyik, akkor nem a nagy tõzsdéket keresi fel, hanem a kisebb, a fõáramból kimaradó piacokat, ahol számtalan kevéssé ismert részvény forog. Az USA piaci likviditásának, azaz a vevõk és eladók jelenlétének 15%-a ezeken a kisebb tõzsdéken rejtõzik. Az itt alkalmazott algoritmusok olyanok, mint egy zavaros vízben horgászó pecás. Csaliként kis mennyiségû részvényt lógatnak be ezekbe a "tavakba", majd figyelik az idõt ami alatt elkelnek, ebbõl ugyanis ki tudják kalkulálni az adott hely likviditási és profit lehetõségeinek rátáját. Az ötlet egyszerû, azonban ez is egyre kacifántosabbá kezd válni a pénzügyi intézetek fejlesztései miatt, melyek szoftverei egyre élesebb harcban állnak egymással és a sok éber alkalmazástól egyre nehezebb igazán nagy fogásokat szakítani.

A patthelyzetet próbálták már szabadalmi és jogvédõi perekkel oldani, ám ezek gyakorlatilag semmilyen eredményt sem hoztak, továbbra is maradt az alapszabály: csak a legjobb és leggyorsabb algoritmusoknak van esélyük a versenyben. Nem marad tehát más megoldás, mint az evolúciót követve új algoritmusokat kidolgozni. Érdekességként Dave Cliff, az elsõ kereskedelmileg is életképes algoritmus megalkotója az 1990-es évek közepén 8 paraméter figyelésével bízta meg szülöttét, ami már akkor több profitot hozott, mint az emberi kereskedõk. Az algoritmus legutóbbi változata már 60 paraméterrel kénytelen dolgozni, amit egy szoftver addig csavargat, míg el nem éri a legnagyobb profitit ígérõ értékeket. A megfelelõ kombináció megtalálása elképesztõen nagy feladattá vált, melyben egyedül a sebesség számít.

Cliff végül a genetikai algoritmusokhoz fordult segítségért. Új rendszere egy sor feltevést vesz alapul a piaci paraméterek optimális kiválasztódásáról, majd leteszteli milyen jól írja le minden egyes paraméter az uralkodó piaci körülményeket, ezután újabb kiválasztódások következnek. Az evolúciós ciklus addig tart, míg a paraméterek számára legoptimálisabb értékek meg nem születnek, ekkor lép munkába az algoritmus. A módszer nem új, több mint 10 éves múltra tekint vissza, azonban ahogy a természet evolúciójának, ennek is idõre van szüksége a kívánt hatás kifejtéséhez.

Az idõ azonban olyan luxus, amit egy kereskedõ nem engedhet meg magának, éppen ezért Cliff kénytelen volt alakítani egy kicsit Darwin receptjén. A kipróbálás után nem dobott el egyetlen paramétert sem, mondván azzal rengeteg információtól válna meg. Ehelyett megtartotta a különbözõ értékeket hogy megvizsgálja azokat, magyarázatot keresve a jobban teljesítõk hatékonyságának okaira. Ehhez persze idõ és jókora számítási teljesítmény kell, Cliff azonban úgy véli hogy algoritmusának 60 paraméterébõl a tizede is elég lenne a hatékony munkához, csupán meg kell találni azokat.

Visszatérve a számítási teljesítményhez, ez az a tényezõ az idõ mellett, amibõl a pénzvilágnak soha nem áll rendelkezésére elegendõ. A befektetési bankok hatalmas gépparkokkal rendelkeznek, legyen az saját vagy bérelt, de emellett nem ritka az sem, hogy asztali PC-ik is elemzõ programokat futtatnak amikor éppen nem dolgoznak rajtuk, amolyan SETI@home mintára. Az algoritmus feldolgozás - lévén ez a cégek legjobban õrzött kincse - dedikált, magas biztonsági szintû szervereken zajlik, több befektetési bank egész emeleteket tart fenn.

A New Scientist szerint az algoritmusok elõrenyomulása ellenére is marad feladatuk az embereknek, õk ugyanis hatékonyabbak a nem likvid piacokon, ahol kevés a vevõ és az eladó, órákon át nem történik semmi, ezek ugyanis mind problémákat jelentenek az algoritmusok számára, statisztikai modelljeik egy ilyen közegben semmilyen értelmezhetõ eredményt nem adnak. Az ember itt az adatok hiányát tapasztalattal és ösztönnel pótolhatja. Mindemellett az algoritmusok nem képesek megjósolni milyen irányba halad a piac, ezt továbbra is az emberek végzik. A kérdés csupán az, hogy meddig?

Listázás a fórumban 
Adatvédelmi beállítások