В вопросах оптимизации страниц под поисковые системы, кроме прописывания ключевых слов, существует также и оптимизация ссылок на этих страницах. К сожалению, большинство веб-мастеров уделяют ссылкам слишком мало внимания, что приводит к большим срокам индексации страниц сайта и увеличению "веса" тех страниц, присутствие которых в поиске нежелательно.
Роботы поисковых систем при индексации страницы считывают все ссылки на ней и, если их достаточно много, индексация даже одного раздела сайта может затянуться на недели и месяцы. Как известно многим веб-мастерам, которые анализирует посещаемость сайта роботами поисковых систем, робот не может индексировать за один заход абсолютно все страницы на сайте, так как для этого требуется слишком много времени, а очередь сайтов на индексацию не уменьшается. Следовательно, ограждение менее значимых ссылок от "глаз" робота-индексатора, по которым он мог бы перейти, может привести к значительному увеличению скорости обнаружения более значимых страниц.
В большинстве своём страницы, которые веб-мастера не хотят видеть в результатах поиска, это материалы со справочной информацией о сайте, об авторе блога, о сайтах-друзьях и подобном. Уберечь подобные страницы от попадания в результаты поиска практически невозможно, да и в этом нет особой необходимости, ведь они будут показываться только в тех случаях, когда посетители будут набирать запросы, под которые оптимизированы данные страницы. Однако можно минимизировать попадание этих страниц в блоки "быстрых ссылок".
Данный блок формируется на основе количества ссылок, ведущих на определённые страницы сайта (возможно, также и от количества кликов по ссылкам на эту страницу в результатах поиска). Дело в том, что пользователь на большинстве страниц сайта хочет видеть только те ссылки, которые помогут ему при работе с сайтом, иначе пользователи будут лишены удобства путешествия по сайту - необходима так называемая "грамотная навигация". Поисковые системы стремятся показывать в результатах поиска сайты такими, какими их видят пользователи, поэтому и большая ссылаемость на определённую страницу тоже ими замечается, ведь чем значимее страница - тем больше на неё будет ссылок, не зависимо от того, внешние ли они, или же внутренние.
Известный в Рунете оптимизатор Devaka в своём блоге опубликовал информацию об использовании тегов noindex и атрибута nofollow на страницах сайта. В статье Сергеем рассказывается, что атрибут rel=nofollow перестал учитываться поисковыми системами в вопросе передачи "веса" ссылками. Поэкспериментировать, так ли это, у меня, пока что, не было времени, но можно с уверенностью заявить, что это лишь плюс для создания "чистых" сайтов, легализации обмена ссылками и толчок к работе веб-мастеров над своими проектами, ведь теперь каждая страница, на которую имеется множество ссылок - пусть и с употреблением rel=nofollow - имеет большую значимость для поисковых систем. Стоит упомянуть, что ранее с помощью ссылок с атрибутом nofollow можно было манипулировать результатами поиска и не давать информации о значимых для пользователя страницах. То, что разработчики поисковых систем вернули первоначальное назначение атрибута rel=nofollow, конечно же, плюс, ведь атрибут был создан лишь для запрета перехода роботам по ссылкам, а не запрета всего, что только можно.
По сути, раздел справки и подобные ему разделы, если ссылка на них имеется на каждой странице сайта, являются значимыми для посетителя, ведь иначе просто не было бы смысла давать ссылку на этот раздел абсолютно на каждой странице сайта. Поисковые системы создавались с целью удобства поиска информации и для достижения этой цели необходимо предоставлять информацию в результатах поиска именной такой, какой её видит посетитель, зашедший на сайт. Если страница не является значимой для пользователя, то и чрезмерно ссылаться на неё нет необходимости.
Однако такие изменения вовсе не означают, что робот станет переходить по ссылкам, которые употребляются с атрибутом rel=nofollow. Оградить паука поисковой системы от перехода по ненужным ссылкам по-прежнему можно: он лишь будет учитывать эти ссылки, но не исследовать содержимое за ними располагающихся страниц. Чтобы понять каким образом это работает, можно рассмотреть наглядный пример:
Абсолютно все ссылки на этой странице будут доступны для перехода роботом. Например, если робот за один заход проверяет и переходит по трём ссылками, то на индексирование всех страниц, на которые ссылается данная страница, потребуется два захода. Допустим, нам не так важно индексирование разделов сайта, так как все новые материалы этих разделов располагаются в анонсах, ссылки в которых индексируются и доступны для перехода роботом. Закроем роботам переход по ссылкам на разделы:
Таким образом мы сокращаем объём работы роботу поисковой системы и, следовательно, сокращаем количество переходов по ссылкам, от которых непосредственно зависит как скоро будут проиндексированы новые материалы. Можно подумать, что употребив ссылки на комментарии с атрибутом, не разрешающим переход по ссылке, можно ещё значительнее повысить скорость обнаружения нужных материалов, ведь общий объём работы сокращается буквально до минимума.
Не смотря на то, что структура сайта на изображении до невозможности проста, а количество ссылок на странице больше напоминает только что созданный сайт, принцип индексации один и ничем не отличается. Когда количество ссылок на сайт возрастёт и робот будет его постоянно посещать, можно будет убрать из ссылок на разделы атрибуты, запрещающие роботам переход по ним, что позволит активно индексировать и содержимое разделов. Однако, если "вес" ссылок передаётся, то нет смысла тратить время на снятие запретов и индексацию разделов - рано или поздно их содержимое всё равно обновится, будь то в связи с внешними ссылками на них, будь то в связи с переходом по какой-либо внутренней ссылке в материалах.
Роботы поисковых систем при индексации страницы считывают все ссылки на ней и, если их достаточно много, индексация даже одного раздела сайта может затянуться на недели и месяцы. Как известно многим веб-мастерам, которые анализирует посещаемость сайта роботами поисковых систем, робот не может индексировать за один заход абсолютно все страницы на сайте, так как для этого требуется слишком много времени, а очередь сайтов на индексацию не уменьшается. Следовательно, ограждение менее значимых ссылок от "глаз" робота-индексатора, по которым он мог бы перейти, может привести к значительному увеличению скорости обнаружения более значимых страниц.
В большинстве своём страницы, которые веб-мастера не хотят видеть в результатах поиска, это материалы со справочной информацией о сайте, об авторе блога, о сайтах-друзьях и подобном. Уберечь подобные страницы от попадания в результаты поиска практически невозможно, да и в этом нет особой необходимости, ведь они будут показываться только в тех случаях, когда посетители будут набирать запросы, под которые оптимизированы данные страницы. Однако можно минимизировать попадание этих страниц в блоки "быстрых ссылок".
Данный блок формируется на основе количества ссылок, ведущих на определённые страницы сайта (возможно, также и от количества кликов по ссылкам на эту страницу в результатах поиска). Дело в том, что пользователь на большинстве страниц сайта хочет видеть только те ссылки, которые помогут ему при работе с сайтом, иначе пользователи будут лишены удобства путешествия по сайту - необходима так называемая "грамотная навигация". Поисковые системы стремятся показывать в результатах поиска сайты такими, какими их видят пользователи, поэтому и большая ссылаемость на определённую страницу тоже ими замечается, ведь чем значимее страница - тем больше на неё будет ссылок, не зависимо от того, внешние ли они, или же внутренние.
Известный в Рунете оптимизатор Devaka в своём блоге опубликовал информацию об использовании тегов noindex и атрибута nofollow на страницах сайта. В статье Сергеем рассказывается, что атрибут rel=nofollow перестал учитываться поисковыми системами в вопросе передачи "веса" ссылками. Поэкспериментировать, так ли это, у меня, пока что, не было времени, но можно с уверенностью заявить, что это лишь плюс для создания "чистых" сайтов, легализации обмена ссылками и толчок к работе веб-мастеров над своими проектами, ведь теперь каждая страница, на которую имеется множество ссылок - пусть и с употреблением rel=nofollow - имеет большую значимость для поисковых систем. Стоит упомянуть, что ранее с помощью ссылок с атрибутом nofollow можно было манипулировать результатами поиска и не давать информации о значимых для пользователя страницах. То, что разработчики поисковых систем вернули первоначальное назначение атрибута rel=nofollow, конечно же, плюс, ведь атрибут был создан лишь для запрета перехода роботам по ссылкам, а не запрета всего, что только можно.
По сути, раздел справки и подобные ему разделы, если ссылка на них имеется на каждой странице сайта, являются значимыми для посетителя, ведь иначе просто не было бы смысла давать ссылку на этот раздел абсолютно на каждой странице сайта. Поисковые системы создавались с целью удобства поиска информации и для достижения этой цели необходимо предоставлять информацию в результатах поиска именной такой, какой её видит посетитель, зашедший на сайт. Если страница не является значимой для пользователя, то и чрезмерно ссылаться на неё нет необходимости.
Однако такие изменения вовсе не означают, что робот станет переходить по ссылкам, которые употребляются с атрибутом rel=nofollow. Оградить паука поисковой системы от перехода по ненужным ссылкам по-прежнему можно: он лишь будет учитывать эти ссылки, но не исследовать содержимое за ними располагающихся страниц. Чтобы понять каким образом это работает, можно рассмотреть наглядный пример:
Абсолютно все ссылки на этой странице будут доступны для перехода роботом. Например, если робот за один заход проверяет и переходит по трём ссылками, то на индексирование всех страниц, на которые ссылается данная страница, потребуется два захода. Допустим, нам не так важно индексирование разделов сайта, так как все новые материалы этих разделов располагаются в анонсах, ссылки в которых индексируются и доступны для перехода роботом. Закроем роботам переход по ссылкам на разделы:
Таким образом мы сокращаем объём работы роботу поисковой системы и, следовательно, сокращаем количество переходов по ссылкам, от которых непосредственно зависит как скоро будут проиндексированы новые материалы. Можно подумать, что употребив ссылки на комментарии с атрибутом, не разрешающим переход по ссылке, можно ещё значительнее повысить скорость обнаружения нужных материалов, ведь общий объём работы сокращается буквально до минимума.
Не смотря на то, что структура сайта на изображении до невозможности проста, а количество ссылок на странице больше напоминает только что созданный сайт, принцип индексации один и ничем не отличается. Когда количество ссылок на сайт возрастёт и робот будет его постоянно посещать, можно будет убрать из ссылок на разделы атрибуты, запрещающие роботам переход по ним, что позволит активно индексировать и содержимое разделов. Однако, если "вес" ссылок передаётся, то нет смысла тратить время на снятие запретов и индексацию разделов - рано или поздно их содержимое всё равно обновится, будь то в связи с внешними ссылками на них, будь то в связи с переходом по какой-либо внутренней ссылке в материалах.
Комментариев нет:
Отправить комментарий