Csak a használati jogokat , bizonyos idõre, és úgy képzelem ,hogy a belõlle származó haszon egy kis részét elkérem.
Részben C++ ban szeretném, a megját meg ASM-ben.
Baromi gyors lesz.
Van ez a shanon limit, amit még egy tömörítõ program sem tudott átlépni.
Ennél a programnak pont az a lényege,hogy ha megnõ a minta entrópiája akkor megy jól a tömörítés.
Abból a feltevésbõl indultam ki, hogy akármilyen féle mintákra fel lehet álítani olyan szabályokat ami alapján jó lesz a tömörítés.
A sorhossz kódolás akkor hatékony ha sok azonos érték van egymás mellett, a huffman ha adott értékbõl fajtákból jelentõsen több van az állományban. Az lzw akkor jó ha bizonyos adott mintákból jelentõs van az állományban.
Az enyém úgy mûködne, hogy akkor hatékony ha minél nagyobb az entrópiája, minél véletlenszerûbbek az adatok... azaz, ugyanazon "szimbólumok" aránylag közel helyezkednek el a kódban.
De a legnagyobb különbség az, hogy az eddigi alkalmazásokkal elvégett átkodolás után megnõ az adatok entrópiája, közel a shanon limithez és már nem érhetõ további méretcsökkenés, esetleg nagyon pici.. mivel ezek az algoritmusok az ismétlõdéseket "redundanciát" veszik ki a kódból.
Amit én készítek annál a kódolás után ugyan olyan nagy lesz a kimenõ entrópia mint a bemenõ adatoknál, azaz akárhányszor megyünk át rajta , mindig kisebb és kisebb lesz, és ahogy mélyebre megyünk egyre jobban a rekurzióba, annál hatékonyabb lesz a tömörítés is. Érdekes. Én sem számítottam rá. Egy menetben átlagosan 10-20% al lesz kisebb az adat, és kicsomagolással egyértelmûen vissza is lehet álítani minden bitet a kezdeti állapotra.
Ami lehetõvé teszi a mûködést, az az,hogy a "véletlen" egymás után következõ száoknak , szimbólumoknak , mintázatuk van.
És akármilyen véletlennek tûnõ sorozatot nézel, azokban is benne vannak a minták. Úgy néz ki a mi világunkban mindenhól felbukkannak ezek a minták. Gyanítom ,hogy ez egy mester fraktál lehet.