Всем привет! Не так давно Яндекс объявил, что с 15 мая начнет карать за чрезмерную покупку ссылок — в свет выходит фильтр Минусинск. Это говорит только об одном: все большее внимание поисковые системы уделяют непосредственно качеству ресурса и все меньше внешней оптимизации, потому что ее можно накрутить различными способами (ссылки, поведенческий фактор и так далее).

Что делать, если вы не можете сами оптимизировать свой сайт и найти на нем ошибки? Все просто — закажите SEO аудит на стороне. Устранив внутренние проблемы на своем интернет ресурсе, можно неплохо взлететь в поиске. Дабы не быть голословным, приведу пример одного моего клиента, которому я недавно сделал аудит. Чуть выше можно увидеть график позиций в топ-10 Яндекса. Как видите, после SEO аудита и исправления всех ошибок уже через 3 недели число ключей в ТОП-10 Яндекса выросло с 44% до 78%! И это ВЧ и СЧ запросы в такой конкурентной тематики, как недвижимость!
Надо сказать, что за время работы над сайтом и последующие 3 недели ожидания не было куплено ни одной ссылки! Рост пошел только за счет внутренних факторов.
Какие были ошибки, и что было сделано
1. Имелось большое количество страниц с одинаковыми title или description. Так как ресурс очень большой (более 50 000 страниц), то пришлось писать шаблоны под определенные типы страниц, а программистам это реализовывать. Проверить наличие таких дублей можно через панель Google для Вебмастеров — «Вид в поиске» — «Оптимизация HTML».
2. Присутствовали открытые для индексации внешние ссылка на порталы партнеров. Чтобы их найти, достаточно было внимательно просмотреть исходный код. Все закрыли тегом noindex и атрибутом rel=”nofollow”.
3. Не полная карта сайта sitemap.xml. Почему-то в ней отсутствовало огромное количество страниц, в том числе и тех, что продвигались в поисковых системах.
4. Не удобная карта сайта для пользователей, которая не отражала иерархию и структуру интернет ресурса.
5. Был найден полный дубль основного сайта на поддомене, который благополучно индексировался поисковыми системами. Когда-то его использовали для тестирования, а потом забыли про него. Знаю, что некоторые хостинги создают подобные дубли для служебных нужд. Их нужно отслеживать и удалять или полностью запрещать индексацию через robots.txt.
6. Основные тексты уже растащили по интернету, поэтому их уникальность оставляла желать лучшего. Их пришлось переписывать копирайтерам. В первую очередь переписывались тексты на посадочных страницах под ВЧ и СЧ запросы.
7. По новым требованиям Google я открыл для его бота скрипты и стили. Приоритетной поисковой системой для этой компании является Яндекс, но пройти пренебрегать Гуглом я не привык, поэтому сделал это. Посмотреть, к каким файлам нужно дать доступ через robots.txt можно опять же в панели Google для Вебмастеров — “Индекс Google” — “Заблокированные ресурсы”. Только давайте доступ именно боту от Google, а не всем подряд.
8. Ключи были неверно распределены по сайту. Некоторым ключам соответствовало сразу несколько страниц, поэтому запросы то поднимались, то теряли позиции, постоянно меняя посадочную. Пришлось помочь в их правильном распределении.
9. Для основных страниц, которые продвигаются под ВЧ и СЧ, мной были составлены title и description, для других даны рекомендации по их правильному составлению. Keywords вовсе снес, ибо на многих страницах они были одинаковые и просто вызывали переспам в мета тегах.
10. Внедрена микроразметка для некоторых элементов сайта (о микроразметки позже расскажу отдельно).
11. Очищен исходный код от лишних тегов html и атрибутов стилей css. Много текста добавлялось через визуальный редактор, поэтому лишнего кода там было очень много.
Программисты занялись оптимизацией и ускорением работы сайта согласно рекомендациям google, полученным из сервиса PageSpeed Insights.
12. Начались работы над созданием мобильной версии сайта (пока в процессе, так что это не успело повлиять на рост позиций).
13.Были исправлены корявости дизайна — где-о слои друг на друга налезали, где-то картинки за блог выходили и так далее.
14. Внесены некоторые доработки, которые сделали сайт более удобным для использования. Особенно это касалось поиска и системы фильтров.
Конечно, все это я бы сам не исправил. Фактически, я только провел глубокий SEO аудит сайта и грамотно расставил задачи для копирайтеров и программистов. За 3 недели после проведенных мероприятий еще не все изменения были проиндексированы и восприняты Яндексом, но положительная динамика прослеживается уже сейчас, и это радует.
Каждый сможет пробежаться по перечисленным мной пунктам и отыскать подобные ошибки на своем сайте. Уверен, у большинства многие из них в том или ином виде присутствуют.
На этом же на сегодня все. Благодарю за внимание и до скорых встреч!
Здравствуйте, Дмитрий, в очередной раз вижу, что ты как всегда интересен и актуален, что не может не радовать !!! Желаю успехов тебе и твоему блогу, и спасибо за познавательную статью !
Привет, Олег! Спасибо за добрые пожелания
Ты чего мне в личку так и не ответил?
Да забегался закрутился вот и не ответил
Прости засранца
Дим, а что ты имеешь в виду: «Основные тексты уже растащили по интернету, поэтому их уникальность оставляла желать лучшего»?
Их растащили до того, как проиндексировали? Или даже если изначально они были уникальны, после того, как их много раз скопировали, их желательно переписать?
Я проверил уникальность текстов через text.ru. Оказалось, что все тексты уже встречаются на других сайтах. Некоторые целиком, другие на 95% присутствуют на других интернет ресурсах. Так как они размещались давно и до меня, то было принято решение их переписать и сразу занести в Яндекс Оригинальные тексты, чтобы авторство было точно определено Яндексом.
спасибо
Хороший анализ. Я бы поработал у себя с пунктами: 2,5,11. Только где искать понял, а как исправлять не совсем. В исходном коде ведь это не исправляется? Наверное нужно делать в файлах? И что ты называешь виртуальным редактором, это редактор типа Ворда или тот что на блоге в админке?
Чистить надо как шаблон, который используется на сайте, так и контент, ведь многие добавляют текст, видео, картинки через визуальный редактор, а он в свою очередь добавляет кучу ненужных тегов и стилей.
Чаще всего пишу статью в ворде, проверяю Плагитусом, добавляю в Яндекс вебмастер обязательно, а потом публикую на сайте через редактор админки. Как чистить шаблон пока не знаю, нужно поискать инфу. Плагин: WP-optimeze у меня установлен, но наверное этого мало?
Здравствуйте Дмитрий. Мне никогда не попадалась на глаза ваша рассылка в моем почтовом ящике, но сегодня что-то толкнуло меня открыть ваше письмо, перейти по ссылке и прочитать все это. Теперь мне хочется пообщаться с вами как-нибудь и может быть, если это возможно, заказать ваши услуги аудита.
Добрый день, Сергей! Напишите мне в личку через форму обратной связи. Я всегда открыт для общения
Добрый день, Дмитрий! Прежде всего, спасибо за полезную статью! Рад, что не удалил письмо с рассылкой, приняв его за спам. По поводу второго пункта. Только что прочитал большую статью по поводу бесполезности noindex/nofollow. В том смысле, что они не закрывают ссылки от индексации, а выполняют несколько иную роль. Вроде как noindex закрывает от Яши только текст, но ссылка индексируется, а nofollow не предотвращает утечку веса, а лишь не передает его по ссылке, но вес все равно уходит «в никуда». Так будет ли какой-то эффект от этого пункта?
Добрый вечер, Петр! Если опасаетесь, что вес все-таки утечет, то можно закрыть ссылки черех html5 или javascript, но мне кажется это не естественным.
А что же вы не написали кто вам его делал и сколько вам эта процедура обошлась, да еще и кто исправлял цена было бы очень интересно.
Помоему очевидно, что для своего клиента аудит делал я сам
Стоимость вам знать необязательно, все равно я цену для каждого аудита определяю индивидуально в зависимости от сложности проекта. В данном случае выявленные мной ошибки исправляли программисты и копирайтеры со стороны заказчика.
Недавно тоже увеличил посещаемость одного сайта просто сделав грамотный внутренний аудит. Тематика попалась специфичная — христианство и бизнес. По контенту было трудно сказать что-то, так что сфокусировался исключительно на технических факторах, и это помогло. Там одних только дублей было тысячи
Подскажите как закрыть дубль основного сайта в роботе?
Судя по вашему файлу, у вас уже и так все нормально. Просто нужно подождать пока Яндекс склеит домены.