Поисковый алгоритм

Поисковый алгоритм представляет из себя математическую формулу, содержащую переменную. Этой переменной будет выступать запрос пользователя. По этой формуле вычисляются несколько решений, из которых выбирается одно.

Таким образом алгоритм «забирает» задание, чтобы «возвратить» решение, оценив все возможные решения задания. Алгоритм распознает ключевые слова, определяемые роботами-поисковиками, как исходные данные, сортирует их и подставляет в релевантную выдачу поисковой машины в виде решения задачи. Роботы-поисковики анализируют содержание веб-страницы и соответствие ключевых слов на базе некоторого алгоритма, являющегося математической формулой, которая индивидуальна в зависимости от поисковой системы. Это объясняет различие в выдаче разных поисковиков.

Поисковый алгоритм учитывает и подвергает анализу следующие факторы:

  1. Возраст сайта.
    2. Имя домена, т.е название URL сайта.
    3. Русскоязычный ли сайт или язык отображения является иностранным.
    4. Общее количество страниц сайта.
    5. Востребованность пользователем тематической востребованности сайта.
    6. Полный вес всего сайта и объем каждой веб-страницы сайта.
    7. Объём информации в виде текста на сайте, а также количество текстового материала на каждой веб-странице сайта.
    8. Какой стиль применяется на страницх сайта.
    9. Общее число ключевых слов на сайте и на отдельно взятой веб-странице.
    10. Соотношение количества слов на сайте/веб-странице к количеству ключевых слов на сайте/веб-странице.
    11. Индекс цитирования.
    12. Количество запросов по конкретному ключевому слову за заданный период времени.
    13. Частота обновления контента сайта, и дата последнего обновления страниц сайта.
    14. Общее количество картинок и мультимедийных файлов на сайте.
    15. Наличие фреймов.
    16. Размер и тип шрифта, которым выполнены ключевые слова. Стиль заголовков и ключевых слов.
    17. Использована ли разрядка при написании ключевика.
    18. Расстояние до ключевых слов от начала страницы.
    19. Имеются ли мета-теги и их анализ.
    20. Имеются ли описания свойств страницы и их содержание.
    21. Имеется ли файл "robots.txt".
    22. Где географически находится сайт.
    23. Имеются ли и какие комментарии внутри программного кода сайта.
    24. Тип (html или asp) страниц для каждой веб-страницы сайта.
    25. Есть ли в составе сайта flash модули.
    26. Есть ли на сайте страницы-дубли или страницы, незначительно отличающиеся между собой.
    27. Являются ли ключевики сайта соответствующими разделу каталога, в котором зарегестрирован сайт в поисковой системе.
    28. Имеются ли "шумовые слова" ("стоп слова").
    29. Общее количество гиперссылок сайта, число ссылок внутри сайта, число ссылок на сторонние ресурсы.
    30. Глубина сайта.
    и прочие специальные технические параметры.

Поисковые алгоритмы являются конфиденциальной информацией, и точного определения на какие именно параметры в первую очередь ориентируются поисковые системы анализе веб-страниц не существует.

Поисковые системы также имеют программы фильтрации спама. Например, известно о применении фильтра «песочница» поисковой системой Google, предполагается что такого рода фильтр использует и Яндекс. Изменения алгоритма поисковиков могут быть вызваны именно необходимостью включения таких фильтров.

Также Вы можете узнать про такие поисковые алгоритмы, как Арзамас, Магадан, Находка.


Термины по этой теме: google analytics, флуд, web мастер


Rambler's Top100