Пример вывода сайта из под АГС

Пример вывода сайта из под АГС

Как я вывел сайт из под АГС

Всем привет!

Те, кто следит за моим блогом, наверно, в курсе, что я активно изучаю фильтр АГС и все, что с ним связано. Более того, как то я написал, что имею положительные результаты по выводу сайтов из под АГС. Сегодня я разберу один такой пример для читателей моего блога. Сразу скажу, что самыми распространенными причинами наложения фильтра АГС являются внутренние факторы и ошибки, которые вебмастера не замечают, либо игнорируют.

Небольшая история в качестве предисловия. Не так давно, путешествуя по интернету, случайно зашел на один блог (к сожалению, не могу найти ссылку). Антивирусник тут же стал верещать и грозить красными окнами. Стоит заметить, что автор блога, девушка, жаловалась на то, блог попал под АГС и скорее всего это связано с продажей ссылок в Блогуне. После того, как вирус был удален с сайта, «АГС» был снят. Подобных историй я могу привести много — спасибо тем, кто воспринял адекватно и откликнулся на мою просьбу. По большей части, основные причины АГС — некачественный контент, проблемы с дублями страниц, технические ошибки на сайте, а отнюдь, не продажа ссылок.

Итак, рассказываю. Пациенту чуть менее года, в начале лета попал под АГС, переписка с Платном ничего не принесла. С виду сайт — СДЛ, то есть читабельные уникальные тексты, переделанный паблик шаблон, посещаемость пусть и небольшая, но живая. Хоть сайт и торговал в биржах вечных ссылок, но заспамленным назвать его язык не повернется.

Повторюсь, видимых косяков на сайте нет, но давайте заглянем глубже. Запустим лягушку Screaming Frog SEO и посмотрим, что она нам скажет.

 replytocom в url страниц

Как видим обнаружены урлы с подозрительным окончанием &replytocom. Это не что иное, как дубли страниц, сгенерированные движком сайта. Любой новичок в SEO знает, что подобные дубли необходимо закрывать в robots.txt. От себя добавлю, что их необходимо не только закрывать от индексации, но и совсем вырезать из шаблона сайта ссылки на подобные дубли, дабы у ПС не возникало даже мысли о том, что такие страницы существуют в природе.

Мета-тег Description не заполнен

Мета-тег Description не заполнен. Это не столь критично для Яндекса, но с Google могут возникнуть некоторые осложнения.

Добавлю еще, что эта проверка выявила несколько совершенно ненужных внутренних 301 редиректов. Опять-таки редиректы нужны тогда, когда в них действительно есть необходимость, злоупотреблять ими не стоит.

Теперь запустим PageWeight и посмотрим, как распределен статический вес по сайту. К сожалению, скринов этой проверки не сохранил, но суть в том, что значительный вес уходит на страницы тегов, а также злосчастные урлы, содержащие &replytocom.

Также PageWeight и Screaming Frog SEO выявили несколько «битых» ссылок на сайте. А вот так у нас отдается 404 ошибка (Not Found):

 404 ошибка (Not Found)

Теперь обратимся к виновнику торжества — к Яндексу. Посмотрим, что нам скажет Яндекс.Вебмастер. Посмотрим страницы, исключенные из поиска:

Страницы, исключенные из поиска

Документ содержит мета-тег noindex означает, что в настройках SEO-плагина некоторые страницы были закрыты от индексации, но в robots.txt это не было прописано.

Документ не является каноническим намекает нам на наши &replytocom. А вот и они сами:

replytocom

 

Теперь посмотрим на структуру сайта глазами Яндекса:

Структура сайта глазами Яндекса

Не очень радостное зрелище, с учетом того, что RSS-фид надо закрывать от индексации.

Загруженная карта сайта выглядит так:

Карта сайта

Как видим, в sitemap.xml найдено 46 ссылок (в реальности на сайте опубликовано 64 записи, не считая разделов) да еще и две ошибки. Собственно, в такой ситуации глупо надеяться на хорошую индексацию и любовь со стороны «Зеркала Рунета».

А теперь добавим ко всему вышеперечисленному хостинг, который непозволительно часто лежит и слабоватый поведенческий фактор. Здравствуй, АГС! А вы думали, что это из-за продажи ссылок в GGL?

После того, как все вышеперечисленные ошибки на сайте были исправлены прошло пару месяцев и сайт вернулся в индекс сам собой. То есть без писем в службу поддержки Яндекса, без покупки внешних ссылок и т. п. Так, что «Продолжайте развивать свой сайт … и он обязательно будет представлен в поиске большим количеством страниц. »

Хочу отметить, что все вышесказанное является лишь частным случаем. Причин наложения фильтра АГС много, я разобрал лишь одну из них — некорректно настроенную индексацию и внутренние технические ошибки. Не следует думать, что подобным образом можно будет вывести из под фильтра низкокачественный сапосайт или что-то еще. Тем ни менее, необходимо следить за качеством своего ресурса и вовремя исправлять все обнаруженные ошибки, дабы потом не было мучительно больно за потерянные из индекса страницы.

Работу по изучению АГС я буду продолжать, в дальнейшем планирую написать целую серию статей подобно этой. А пока можно почитать мою первую статью про АГС и более свежие мысли на тему этого фильтра.

Спасибо за внимание и всего доброго!

Вы можете высказать свое мнение к посту Пример вывода сайта из под АГС и обсудить его с другими читателями.

Комментарии (16) к “Пример вывода сайта из под АГС”

  1. Если есть желание — присылайте свои сайты для анализа.

    • Monarx:

      Воспользуюсь Вашим предложением и предложу сайтик для анализа: 7lux_ru

      Вся его ценность в том, что он находится в ГГЛ, я думаю, что причина — продажные вечные ссылки. Т.к. дубли вроде бы закрыл через роботс.

  2. Monarx:

    Андерей, материал, просто класс. Не знал, что WP делает столько дублей. Но как же тогда закрыть все дубли, которые &replytaocom… ? Подсмотрел, как у Вас реализовано:

    Disallow: /*replytocom*
    Disallow: /*?utm_source*
    Disallow: */comments
    Disallow: /*?*
    Disallow: /*?
    Disallow: */feed

    Этого будет достаточно, чтобы предотвратить возможные дубли? (не считая тэгов, пэйджей, авторов и т.д.?

    • Все зависит от темы WP вашего сайта. Вполне возможно, в ней нет этих самых replytocom. Нужно смотреть индивидуально.

  3. Андрей, объясните мне, Бога ради — человек, взявшийся просто вести блог, откуда может все это знать? Я прочла Вашу статью и если и поняла что-то, то очень смутно. Отчетливо поняла лишь одно — я из-под этих проблем никогда не вылезу. На кого ориентируется Яндекс? На продвинутых веб-мастеров? А остальным что тогда — повеситься?

    • Вы правы. Яндекс называет себя зеркалом Рунета, а на самом деле хочет видеть Рунет зеркалом себя.
      Я и сам задавался такими же вопросами раньше…

  4. Андрей! Ваш сайт очень здоровский, я только начинаю всем этим заниматься, очень хочется попросить не смогли посмотреть анализ моего сайта и мои ошибки. Читаю много сама, в голове каша, особенно по анализу робота.

  5. Здравствуйте! Что посоветуете? mega-movies. ру

  6. Посмотрите пожалуйста сайт bestreceptov.ru/ Довольно давно в а.г.с и ни как не могу найти причину. Буду рад любому совету.

    • 1. У вас странный роботс — для Яндекса одно, для Гугла — другое.
      2. Проблемы с форматированием страниц:
      -приведите шаблон в порядок.
      -уберите спамный h2 в теле статьи
      3. Добавьте больше качественных рецептов (я сам готовить люблю, но ничего приличного не нашел). Рецепты похожи на генерированные.
      4. Фото к блюдам не всегда совпадают с описанием к ним.
      5. Раздел «Салаты с фото». Где фото?
      6. http://bestreceptov.ru/obo-mne полюбите готовить и агс уйдет)))

  7. Андрей, не посмотрите мой сайт: http://russia-in-law.ru. Уже несколько месяцев под фильтром Яндекса. Думаю вначале попал из-за того что сайт молодой, посещаемость была маленькая, поведенческие факторы не очень, статьи на сайте небольшие. Но сейчас уже многое изменилось,статьи переписал, посещаемость выросла многократно, но фильтр все равно остается.

  8. Здравствуйте! Андрей можете посмотреть сайт http://fs2013.ucoz.net/ он не под АГС, так для выявления ошибок и сего прочего мусора.

Оставить Ответ

Я не спамер и не робот!