Na ezek a metadata dolgok rendben vannak, de túl kezdetleges, ettõl sokkal jobb megoldást kellene kitalálni.
Az meg, hogy valamit meg találsz e vagy nem az nem kérdés, a baj a következõkben van:
Mekkora esély van rá, hogy az adott információ minõsége megfelelõ szintû legyen?
Mert amikor általános dolgokról keresgélsz akkor ez relatív rövid idõ alatt megtörténik, de még akkor is van, hogy valami más úton 2-3 hónapra az adott keresés után valami sokkal jobb forrást, sokkal minõségesebb információt találok egy adott dologról, pl. úgy, hogy olvasgatok valami portált és annak archivájában van egy link ami aranyat ér, viszont a Google vagy akármelyik másik keresõ ezt a linket csak a 29-edik oldalára rangolja... na ez akkor nekem elegendõ ok, hogy ne legyek megelégedve a Google-val vagy akármelyik keresõvel. Ha pl. Six Sigma-val mérnénk a keresõk teljesítményét akkor 0 Sigma lenne, ugyanis 1.000.000 keresésbõl legalább fele nem elégiti ki a felhasználót, ezt pl. ha átmásolnád valami más területre, mit szólnál ha több mint fele esetben az orvosok nem megfelelõ orvosságot irnának ki a betegnek, vagy a megfelelõ orvosságot a 18-adik nekifutásra találnák el... na ha így nézed a dolgokat akkor nagyon nagyon nem leszel megelégedve a szolgáltatással.
Tehát ez vezet bennünket a második fontos dolog felé, az pedig ha a keresett információt megtalálod a keresõ álltal, olyan minõségben amelyel meg vagy elégedve, akkor ez mennyi idõbe kerül?