Оптимизация

ТОП 12 мифов о seo оптимизации

Распространенные seo мифы

В SEO-бизнесе ничего не происходит просто так. Каждый год появляются новые технологии и методы, становятся доступными новые инструменты и происходит обновление алгоритмических процессов. В результате такой бешеной гонки появляются устойчивые мифы и заблуждения.

Время от времени некоторые мифы действительно подтверждаются (как, например, влияние социальных сетей на SEO), тогда как их большая часть развенчивается. В этой статье будет рассказано о 13 самых популярных мифах о SEO-оптимизации, а также разъяснено, почему это не более чем заблуждение.

1. SEO умирает

Каждый год в поисковом бизнесе происходят серьезные изменения, от чего некоторые блогеры и журналисты начинают предполагать, что SEO вымирает. Несмотря на это, вы можете сами видеть, что оптимизация под поисковые системы жива и здорова, и она постоянно развивается вместе с поисковыми системами. Конечно, технологии меняются, появляются новые инструменты и методы, в то время как другие перестают использовать. SEO является относительно новой формой маркетинга, и она будет существовать до тех пор, пока существуют поисковые машины.

2. Высокая плотность ключевых слов

Некоторые оптимизаторы считают, что высокая плотность ключевых слов на странице поможет улучшить ее позиции. Они убеждены, что это важное правило, и ставят целью запихнуть как можно большее количество таких слов в текст. Поступая таким образом, они, конечно, создают совершенно нечитабельный текст, который не только не помогает заработать позиции, но и раздражает читателей сайтов.

Читайте также:  Оптимизация изображений: что такое Alt и Title для картинок и как их правильно заполнять

Для улучшения позиций страницы единственное, что нужно делать, это использовать в тексте несколько комбинаций основных ключевиков. Это повысит шансы получить позицию и по остальным похожим терминам или их комбинациям, и не повлияет на качество текста. Заметьте, такой метод естественным образом позволит увеличить плотность важных ключевых слов в тексте. Несмотря на это, его основной целью будет не увеличение плотности слов, а включение в текст наиболее распространенных комбинаций выбранных ключевых слов, которые могут использовать пользователи при поиске.

3. Title и ее description обязательно появятся в сниппете

Некоторые веб-мастера считают, что Title или мета-описания, которые они используют на страницах, всегда такие же, как они и будут представлены в сиппетах при поисковой выдаче. Конечно, это не всегда так, так как поисковые машины могут изменить название или описание фрагмента, делая его более релевантным на запрос пользователя. В некоторых случаях поисковые машины могут даже использовать текст, которого нет на целевой странице. Обычно такой текст берется из анкора входящих ссылок.

4. Добавлять каждую страницу во все поисковики

Добавление каждой страницы сайта в поисковики, используя их аддурилки, не поможет ни ускорить их индексацию, ни улучшить ранжирование. Если вы хотите уменьшить время их индексирования поисковиками, добавьте ссылки на них с авторитетных страниц, которые имеют высокий трафик, используйте XML-карты сайта, улучшайте структуру ваших внутренних ссылок. Добавление каждой страницы в поисковики ни улучшит и, в то же время, ни навредит вашим позициям.

5. Мета-теги помогают в ранжировании

Использование мета-тегов ключевых слов было важным для первых поисковых машин, использовавших мета-поиск, и не способных запоминать, анализировать и хранить полностью всю страницу. С тех пор поисковые машины стали более усовершенствованы и могут извлекать необходимые ключевики на странице без использования мета-тегов. Другой причиной, почему поисковые машины перестали использовать такой тег, стало то, что много людей добавляли в них слишком много нерелевантных слов. Google много раз ясно давал понять, что ими больше не используются ключевики в мета-тегах. Таким образом, такой тег больше не поможет улучшать позиции ваших сайтов.

Читайте также:  5 SEO-правил, которыми вы должны жить

6. Дублирование контента приводит к бану

Некоторые люди считают, что большое количество дублированного контента может привести к бану сайта в поисковой системе. К счастью, это неправда. Дублированный контент может, конечно, привести к серьезным проблемам и влиять на количество страниц, которые будут проиндексированы, что повлияет на общие позиции сайта, но за такое поисковик не забанит ваш сайт. Но, не расслабляйтесь, читайте о том как решить проблемы дублированного контента.

7. Валидация HTML-кода помогает СЕО-оптимизации

Многие веб-мастера привыкли думать, что валидацией HTML-кода они помогают SEO-оптимизации сайта. К счастью или к сожалению, это не так. HTML-валидация никак не влияет на ранжирование поисковыми машинами. В то же время, если ваш HTML-код настолько плох, что части страниц не отображаются в браузере, у поисковых машин могут возникнуть трудности с распознаванием вашего текста. Таким образом, здесь имеется в виду, что нужно использовать хороший рабочий HTML-код, но по большому счету незначительные ошибки в нем не повлияют на позиции сайта.

8. Nofollow-ссылки никак не помогают SЕО

Google обычно говорит, что ими упускаются ссылки, отмеченные атрибутом nofollow, и потому они не имеют никакого значения. Однако не все такие ссылки не отражаются на оптимизации. Например, ссылки Facebook и Twitter учитываются, так как Google и Яндекс используют такие ссылки в своей работе. Таким образом, имеет смысл говорить, что не все ссылки с nofollow одинаково воспринимаются с точки зрения SEO, и что большинство поисковых сервисов могут их учитывать в своем анализе.

9. Robots.txt может помочь решить проблему дублирующегося контента

Файл Robots.txt может быть использован для предотвращения синтаксического анализа поисковыми машинами отдельной страницы или сегмента сайта. Таким образом, некоторые сеошники пытаются уменьшить количество дублированного контента на своих сайтах. Однако. блокируя такие страницы, вы запрещаете поисковикам сканировать их, что негативно влияет на структуру ваших ссылок и может привести к проблемам. Как результат такой существующей проблемы – позиции сайта будут снижаться.

Читайте также:  Как продвигать сайт по низкочастотным запросам

10. Низкокачественные ссылки помогают в ранжировании сайта

Основные поисковые системы используют специальные методы для выявления проплаченных низкокачественных ссылок и исключают их из ссылочной массы. Алгоритмы поисковых систем могут распознать некачественные ссылки с линкопомоек и «наказать» сайт за попытки манипуляции поисковой выдачи.

11. SEO-оптимизация требует много времени для достижения позитивных результатов

Оптимизация под поисковые системы – это не процесс, в котором можно достигнуть сиюминутных результатов и не одноразовая работа. Для получения хороших результатов требуются усилия и время. Тем не менее, достичь хороших результатов можно достаточно быстро. Безусловно, новый сайт не сможет сразу же хорошо ранжироваться в конкурентной среде; однако он может достигнуть хороших результатов при использовании наиболее целевых запросов, состоящих из нескольких слов (низкочастотников), то есть с низкой конкуренцией.

12. SEO – это спам и афера

SEO – это рынок онлайн-технологий и процессов, которые помогают сайтам увеличить их естественные трафик, их влияние и продажи. Для достижения этих целей, работа профессионалов в оптимизации направлена не только на улучшение технических характеристик сайта, но и на его содержание, дизайн и внешние факторы. SEO – такой же инструмент маркетинга, как и реклама. Если вы считаете SEO аморальным, то тоже самое можно сказать и о рекламе. О последних тенденциях можете узнать из статьи “5 SEO-правил, которыми вы должны жить”.

Теги

Похожие записи:

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *