Основные грубые ошибки оптимизации

Опубликовано

Исходя из опыта работы с многочисленными веб-сайтами, а видел большое количество проблем, которые привели к тому, что веб-сайт не мог занять хорошую позицию в поисковой выдаче. По этой причине выделю пятерку крупнейших ошибок, которые видел, чему в принципе и посвящена данная статья. Итак, собственно ошибки.

Блокировка поисковых роботов

Файл robots.txt, это файл, который содержит инструкции для поисковых роботов указывающие им, куда они могут либо не могут пойти на определенном сайте. Сканеры ищут этот файл, когда они первый раз заходят на сайт. Вы можете запретить индексацию сканерами всего сайта, отдельных страниц или папки на вашем сайте с помощью протокола исключений для роботов в файле robots.txt. Ошибка возникает, когда веб-мастер случайно блокирует весь сайт в этом файле и предотвращает возможность сканерам индексировать весь сайт. Если в файле robots.txt имеется строка, которая выглядит как «Disallow: /», то вы блокируете весь сайт. Избавьтесь от этой строчки, и сканеры вновь получат доступ на сайт.

JavaScript навигация

Многие сайты используют JavaScript для создания раскрывающихся меню, аккордеон меню и другие плавающие стили. Эти типы навигационных меню призваны упростить навигацию для пользователей, на больших ресурсах, мало того они выглядят красиво. Однако, есть и обратная сторона медали. Дело в том что поисковые сканеры не всегда могут заметить навигацию, и тогда это переростает в немалую проблему. Поисковые сканеры перемещаются по сайту, используя реальные ссылки в коде вашего сайта, но при использовании JavaScript их иногда может и не быть. Для того чтоб отследить эту проблему отключите JavaScript в вашем веб-браузере, а затем посмотрите на ваш сайт. Если вы не видите навигации по сайту, то сканеры не увидят его.

Слишком много Flash

Кроме JavaScript большое количество сайтов использует технологию Flash на своих сайтах. Но как и везде, все достаточно в меру. Однако, к сожалению разработчики сайтов не всегда заботятся о продвижении, либо не пытаются переубедить пользователя не делать сайт полностью на flash. И тут начинаются проблемы. Недостатком flash сайтов является то, что поисковые сканеры не всегда, могут прочитать тот контент что находится на странице, не видят так же ссылок, а это основные параметры по которым ранжируется сайт. Для решения подобной задачи желательно создать точную html сайта, чтобы роботы могли считывать с него информацию.

301 редирект и канонические теги

301 редирект используются, для того чтоб указать поисковым сканерам, что страница окончательно переехала в другое место. Канонические теги используются, для того чтобы в случае наличия дубликатов страниц, указать какой из документов должен быть включен в результаты поиска. Канонические теги не должны использоваться в качестве 301-й редиректа. Если не используются должным образом, каноническое метки могут воспрепятствовать надлежащей индексации сайта. Если вы используете канонической теги, вы должны оценить, что они используются правильно.

Не уникальный контент

Хорошее качество контента имеет решающее значение для ранжирования сайта. Google подчеркивает важность того, что на сайте должно быть довольно много контента хорошего качества. Это стало еще более очевидно после выхода нового алгоритма «контент фермер» / Panda Update. Ранжирование основывается на качественном содержимом сайта, поэтому чем более качествен контент, тем выше вы будете ранжироваться. Дублированный, мелкие или плохо написанный текст будет в центре внимания алгоритма «контент фермер» / Panda Update. Сейчас в англоязычном интернете уже запущен этот алгоритм, а как мы знаем, сначала гугл тестирует свои алгоритмы в этом сегменте, затем дело доходит и до нас. Поэтому следует поспешить привести свои дела в порядок, а именно быстренько отрерайтить все то, что накопировали:).