Исследовательская группа Google бьется над формулой специальной репутационной характеристики для веб-страницы — Knowledge-Based Trust (KBT). По планам, KBT ляжет в основу будущего алгоритма поисковика, выстраивающего сайты согласно их «надежности».
Как известно, алгоритм PageRank определяет значение веб-страницы по количеству ссылок, ведущих на сайт. Реальный поиск Google учитывает еще и множество других факторов. Среди них: наличие ключевых слов на страницах сайтов, актуальность информации, местоположение пользователя, адаптивность к мобильным устройствам, поведенческая реакция и социальные сигналы — всего таких факторов более 200.
Новый взгляд на ранжирование предлагает рассмотреть веб-страницу как числовую характеристику достоверности фактов. Во время сканирования страницы робот будет извлекать «утверждения», достоверность которых он сравнит с базой знаний Knowledge Vault.
Эта база знаний, принадлежащая Google, сейчас содержит примерно 1.6 миллиарда фактов, автоматически собранных из интернета. Ее главное отличие от более известной Knowledge Graph заключается во «всеядности». Если Knowledge Graph использует в качестве источника информации заведомо надежные Wikipedia и Freebase, то Vault «не брезгует» ничем и собирает информацию с абсолютно всех сайтов, из которых можно извлечь хотя бы что-то. На основе числа совпадений «извлеченных» фактов с хранящимися в Google Vault и определяется достоверность ресурса.
Тесты показали удовлетворительные результаты. Удалось вычислить показатели KBT для 119 миллионов веб-страниц. Когда новый фактор ранжирования будет внедрен в реальный поисковый алгоритм Google — пока неизвестно.
эх Google Google .
ГГЛ стремится максимально осложнить жизнь оптимизаторам. Это правильно.
Нормальный алгоритм. Грамотные оптимизаторы не используют сео-методы в сером аспекте. А опытные веб-мастера сайты пишут для людей, а не для машин.