Тема стара, как мир, но её всё же поднимает большое количество "тру-мега-супер-пупер-оптимизаторов" - как же тут не выскажешь и своё мнение? :)
Учитывают или не учитывают поисковые системы теги description и keywords - даже не буду начинать спорить, это может проверить каждый веб-мастер самостоятельно, а вот прописывать их или нет - этот вопрос более интересен.
Многие форумы и блоги сообщают, что данные теги не учитываются поисковыми системами, а значит, что их прописывать - пустая трата времени. То, что теги раньше учитывались, а сейчас их даже не замечают роботы "правильные SEO-шники" объясняют тем, что алгоритмы поисковых систем постоянно меняются и такое изменение - лишь одно из улучшений этих алгоритмов. Хорошо, пусть будет так - сменили алгоритмы, да и ладно. То есть, выходит так, что сейчас роботы поисковых систем сканируют полностью всю страницу, затем выбирают часто употребляемые слова и словосочетания, а только потом понимают по каким запросам нужно показывать просканированные страницы. Не правда ли долго? Впрочем, положительный момент тоже есть: таким образом сайты, на которых нет информации по определённой теме, но по этой теме написаны ключевые слова, не смогут привлекать посетителей.
Интересно, почему бы не объединить эти две функции? То есть, чтобы в итоге прописывание ключевых слов стало обязательным, а в добавок робот всё равно бы сканировал всю страницу и определял ключевые слова. Зачем? А затем, что таким образом можно будет отсеять сайты, которые создаются только для привлечения "трафика", а не для людей.
Рассмотрим детальнее: к примеру, робот находит сайт, посвящённый воспитанию ребёнка.
В ключевых словах страниц этого сайта написано всё, что только можно: "как принимать роды", "как кормить новорождённых" и прочее. В принципе, логично предполагать, что людям, пришедшим по таким запросам на сайт, могут быть интересны и другие темы о детях, только уже имеющиеся на сайте, но всё же информации по этим ключевым словосочетаниям на странице нет. Вот и посмотрел робот на эти ключевые слова, выделил наиболее часто встречающиеся слова из текста страницы, обнаружил, что некоторые ключевые слова были намеренно вписаны, совсем не имея отношения к странице, и применил какие-либо санкции к этому сайту, дабы администратор сайта знал, что сайты нужно делать для людей, а не для поисковиков. Ведь это нам диктуют многочисленные советы и правила, предоставляемые поисковыми системами?
По поводу же тега description я могу сказать только одно: этот тег необходим сайтам и он должен показываться в сниппетах (описании сайтов в поисковой выдаче). Ведь именно он может предоставить краткую информацию о товаре и/или услуге, телефон или адрес организации, его/её предоставляющей.
Возможно, я даже надеюсь, что когда-нибудь поисковые системы будут отсеивать сайты по такому способу, какой я описал выше, и тогда добрая половина веб-мастеров, прописавшая теги description и keywords, поймёт, что труд заслуживает внимания и относиться всё более и более легкомысленно к сайту и нововведениям поисковых систем не стоит.
Учитывают или не учитывают поисковые системы теги description и keywords - даже не буду начинать спорить, это может проверить каждый веб-мастер самостоятельно, а вот прописывать их или нет - этот вопрос более интересен.
Многие форумы и блоги сообщают, что данные теги не учитываются поисковыми системами, а значит, что их прописывать - пустая трата времени. То, что теги раньше учитывались, а сейчас их даже не замечают роботы "правильные SEO-шники" объясняют тем, что алгоритмы поисковых систем постоянно меняются и такое изменение - лишь одно из улучшений этих алгоритмов. Хорошо, пусть будет так - сменили алгоритмы, да и ладно. То есть, выходит так, что сейчас роботы поисковых систем сканируют полностью всю страницу, затем выбирают часто употребляемые слова и словосочетания, а только потом понимают по каким запросам нужно показывать просканированные страницы. Не правда ли долго? Впрочем, положительный момент тоже есть: таким образом сайты, на которых нет информации по определённой теме, но по этой теме написаны ключевые слова, не смогут привлекать посетителей.
Интересно, почему бы не объединить эти две функции? То есть, чтобы в итоге прописывание ключевых слов стало обязательным, а в добавок робот всё равно бы сканировал всю страницу и определял ключевые слова. Зачем? А затем, что таким образом можно будет отсеять сайты, которые создаются только для привлечения "трафика", а не для людей.
Рассмотрим детальнее: к примеру, робот находит сайт, посвящённый воспитанию ребёнка.
В ключевых словах страниц этого сайта написано всё, что только можно: "как принимать роды", "как кормить новорождённых" и прочее. В принципе, логично предполагать, что людям, пришедшим по таким запросам на сайт, могут быть интересны и другие темы о детях, только уже имеющиеся на сайте, но всё же информации по этим ключевым словосочетаниям на странице нет. Вот и посмотрел робот на эти ключевые слова, выделил наиболее часто встречающиеся слова из текста страницы, обнаружил, что некоторые ключевые слова были намеренно вписаны, совсем не имея отношения к странице, и применил какие-либо санкции к этому сайту, дабы администратор сайта знал, что сайты нужно делать для людей, а не для поисковиков. Ведь это нам диктуют многочисленные советы и правила, предоставляемые поисковыми системами?
По поводу же тега description я могу сказать только одно: этот тег необходим сайтам и он должен показываться в сниппетах (описании сайтов в поисковой выдаче). Ведь именно он может предоставить краткую информацию о товаре и/или услуге, телефон или адрес организации, его/её предоставляющей.
Возможно, я даже надеюсь, что когда-нибудь поисковые системы будут отсеивать сайты по такому способу, какой я описал выше, и тогда добрая половина веб-мастеров, прописавшая теги description и keywords, поймёт, что труд заслуживает внимания и относиться всё более и более легкомысленно к сайту и нововведениям поисковых систем не стоит.
Комментариев нет:
Отправить комментарий