Én most dolgozok egy olyan programon ami elég jól tömörít majd, nem az adatok redundanciáját fogja kihasználni henem az nagy entrópiában kialakuló mintákat fogja kihasználni.
Nagyon gyors lesz mivel stream szerûen megy végig az adatotok, és úgy néz ki,hogy semmi akadálya annak,hogy egy 1 gigás fájlból pár kilobájtosat tudjon csinálni, mert akárgányszor átmegy az adatokon az algoritmus, mindannyiszor kisebb lesz kb. úgy 10-20 % al.
Úgy néz ki, ha rekurzívan visszavezetem az adatokat mondjuk 40-szer, akkor 10 szor kisebb állományt kapok, ha meg 50 szer akkor meg ezerszer kisebb lesz.
Ahhoz, hogy ezerszer kisebb állományt kapjak a végén, kb egy 10 megás fájlnél, a processzor kb, 100 mega adaton kell mûveletet végeznie, egséz számokkal, sok elágazásos utasítással. mivel nem lzw szerûen mûködik hanem sorosan, baromi gyors lehet.
Akit érdekel az szoljon, egyedül nehéz leprogramozni.