Ennél a kódolásnál a képet 16x16, 8x8 és 4x4 es blokkokra osztja a program, csinál rajtuk egy olyan vizsgálatot mely megmondja hogy optimálisabb ennek a bloknak a frekvencia térbe való transzformálása, azaz próbálja forgatni a blokkokat, hogy minél egyenletesebb jelet kapjon a frekvencia térbe való transzormálásnál, majd ezeket a blokkokat egy a DCT-hez hasonló frekvencia együtthatókkal próbálja közelíteni, ezért hívják ezeket diszkrét értékeknek.
Akárhogy is, ez a formátum szintén erõssen blokkosodik alacsony bitrátán.
Csupán az inteligens dekódoló algoritmusnak köszönhetõ hogy szépen elsimítja ezeket az éles töréseket, egy blur hatással. a törések mentén egy két pixeles vonalban átlagol és ezzel egy jelentõs részét tönkre teszi a jelnek.
A wavelet analízis a képet olyan együtthatókból építi fel melynek imsert a pontos helye pixelre pontosan és ismert a pontos értéke is, ahól a képen a jel közel egyenletesen változik ott csak két együtthatóval tárolja azt, a kis zajok kb 1-8 as érték ingadozások elünnek, ami lággyá teszi a képet.
A képet progresszíven építi fel egyre jobban formázva a részleteket és duplázva a feldolgázosákor a felbontást egészen a végleges eredeti febontásig, közben elvet minden olyan együttható értéket ami egy adott értéknél kisebb, azaz elõbb pont a jelentéktelen szemel nem észre vehetõ jelváltozásokat hagyja el,
matematikai módszerekkel bebizonyítható, hogy az összes ortonormált bázis közül a wavelet segítségével érhetõ el a Shannon entrópia szerint mért legrövidebb együttes leírása az adatoknak és a modellnek. Ezt nem én találtam ki.
Mostanában elég sokat foglalkozok tömörítéssel, most fõleg veszteségessel, megnéztem a mostani legjobbakat és szerintem a wavelet alapú tömörítéssel lehet mit kezdeni.
Szerintem a m-jpeg2k video codec semmivel sem lassabb mint az x.264, jelenleg azért olyan lassú mint amilyen mert ez a szabvány az eredeti Haar Alfréd (magyar matematikus) által felírt wavelet hulámok Daubechies által módosított változatát használja, annak is a 9/7 módosítását.
Nemtudom pontosan miért van erre szükség, ez egy bonyolult jel, bonyolultabb mint a daub-4 de ugyan azt tudja. Egy eredeti haar vagy a mexikó kalap jellel ugyan olyan jó minõségû lehet a jel analízise, a megjelenítés 100 szor gyorsabb is lehet, max a távoli együthatók jeleit össze kell átalgolni a köztes területeken. Azaz, szerintem az m-jpeg2k szabvány egy nagy szar, és nincs optimalizálva, megvan a forrása is, nagyon hatékony a kód, de látszik hogy szartak rá hogy mennyi procit eszik, egy az egyben át van ültetve a képfeldolgozó része a jp2 képszabványból, egy kép megjelenítésénél meg nem nagyon számít a gyorsaság.
Én úgy gondolom,hogy lehetne ennél sokkal gyorsabb kódot is írni waveletre, mint ami most létezik.
Néhány link, annak aki meg akarja ismerni a waveletek világát.