Google: a tényeken alapuló rangsorolásé a jövő?
Nem kizárt, hogy a közeli, de legalábbis a belátható jövőben egészen új paradigmák váltják fel a jelenlegi SEO-irányelveket, amelyek alapjainak kibontakozását már most láthatjuk. A Google ugyanis a háttérben olyan rendszerekkel kísérletezik, amelyek megvalósításával a weboldalakat a jövőben nem linkerejük, hanem sokkal inkább a rajtuk megtalálható tények – avagy a tartalom – minősége és mennyisége határoz meg a rangsorolás tekintetében.
A New Scientist beszámolója szerint a Google egy egész kutatócsoportot és mérnöki brigádot állított fel annak érdekében, hogy megvalósítsanak egy teljesen új rangsorolási algoritmust, amelyet belső körökben „tényszerű bizalom” néven emlegetnek, méghozzá nem véletlenül. Az eddig kiszivárgott részletek alapján ugyanis az egyes honlapokat a jövőben belső szignálok által is értékelni lehet a minőség tekintetében, hiszen jelenleg a honlapok minőségét kizárólag külső szignálokkal, jellemzően linkekkel ítélhetjük meg. Ez az új algoritmus azonban a kérdéses weboldalakon megjelenő tényszerű adatok pontosságát venné górcső alá, és az alapján ítélné meg a találati helyezést, ezáltal az olyan oldalakon, ahol nagyon sok a tényszerű cikk, és kevés a tévedés vagy a használhatatlan tartalom, az algoritmus szerint jó minőségűnek, előre sorolandónak minősülne.
A Google egyelőre túl sok részletet még nem árult el az új algoritmusról, ellenben működéséről már igen, így a Knowledge Graph adatait valós adatként adták meg, és minden más weboldalakon feltűnő adatot, illetve tartalmat ezzel hasonlították össze. Amennyiben egy-egy weboldalon nem volt elegendő tényszerű adat, akkor a domaint a megbízhatóság alapján rosszabb ítéletet kapott, ez pedig befolyásolta a találati listán való helyezését is.
A Knowledge Graph-ról annyit érdemes tudni, hogy a Google 2012-ben indította útjára, és már akkor is rengeteg kérdést vetett fel, hogy a keresőóriás vajon miért is gyűjti ilyen nagy mennyiségben a tényszerű adatokat. Ma már tudvalevő, hogy ezek az adatok a találati listákon külön dobozokban jelennek meg, illetve a jövőben a fentiek alapján egy külön algoritmus is épülhet rájuk. Az első teszteken egyébiránt az algoritmus jól vizsgázott, közel 120 millió weblap adatairól 2,4 milliárd tényszerű adat gyűlt össze, amelyek alapján sikerült előjelezni egy adott oldal megbízhatóságát.
A tényszerű adatokat a kereső jobb oldalán látjuk egyre több esetben, pl. ha híres emberekre, eseményekre, helyekre, településekre keresünk.