Всем добрый день!
Сегодня выкладываю третью статью об исследованиях качества страниц донора на предмет передачи ссылочного веса. В первой статье мы рассмотрели внутренние факторы, влияющие на вес страницы-донора, во второй коснулись внешних факторов и попытались найти инструменты для измерения уровня траста. Теперь пора подвести все к общему знаменателю, ввести некоторые поправки и сделать выводы.
Обобщим обе методики, описанные в прошлых постах:
- С помощью PageWeight обсчитываем условные веса страниц сайта, отсеиваем все лишнее и находим с десяток страничек, обладающих наибольшим условным весом.
- Проверяем выбранные страницы на предмет исходящих ссылок. В идеале исходящих ссылок не должно быть. Думаю, если одна ссылка на станице уже есть, трагедии не случиться.
- С помощью Yahoo и Majesticseo выбираем те страницы, на которые идут ссылки извне. На мой взгляд, тут лучше ориентироваться на показатель ACRank от Majesticseo, чем на бэки по Yahoo, но это уже дело вкуса.
- Оцениваем трастовость страниц. Если интересует продвижение под Google делаем упор на показатель PageRank и ACRank. Если продвигаем сайт под Яндекс, анализируем выбранные страницы с помощью Xtool. Все-таки тут немного другая специфика.
- Связываемся с владельцем сайта и покупаем ссылки на тех страницах, которые удовлетворяют нашим требованиям.
То есть, на сайте-доноре мы выбрали те страницы, которые имеют максимальные внутренние и внешние показатели, с этих страниц и необходимо получать линки.
Теперь посмотрим на все выше описанное. В чем проблема этой методики? Главная проблема ее в том, что она очень трудо- и времязатратна. Я бы сказал чересчур: PageWeight работает медленно, Majesticseo и Xtool платные и требуют ручной работы. Какие способы решения этих проблем и автоматизации процесса я вижу?
а) Необходим софт для улучшенной организации работы с внутренними факторами. В идеале — залил несколько десятков доменов, задал критерии:
- отсеивать страницы с tag, archive и т.п. в url;
- исключить главную и страницы разделов;
- исключить страницы с 2мя и более внешними ссылками;
- выводить с каждого сайта по 30 наиболее весомых страниц;
- экспорт результатов в .txt.
Надеюсь, что в новой версии PageWeight это будет реализовано.
b) Необходим софт для массовой проверки url страниц по следующим показателям:
- Yahoo;
- PageRank;
- ACRank;
- xt.
В идеале залил .txt документ, экспортированной первой программой и проверяй страницы по различным показателям.
Думаю разработать второй софт значительно легче. В планах заказать нечто подобное и поюзать на практике.
Собственно, на этом можно было бы и закончить. Но хочу поделиться информацией, полученной в результате работы с описанными в прошлом посте сервисами. Сначала хотел оформить в виде таблицы данные, но потом подумал, что пытаться искать зависимость между трастом страницы в Яндексе и зарубежными пузомерками по крайней мере глупо. Так что не буду пудрить мозги читателям своего блога, а просто перечислю несколько интересных фактов:
- ACRank пересекается с PageRank, в том случае, если PageRank имеет внешнее происхождение. Оно и понятно: бэки и в Африке бэки.
- Проиндексированные странички сайта под АГС могут обладать ощутимым трастом. Логично: если Яндекс оставил эти страницы в индексе, значит на то были причины. На Серче создателей Xtool критиковали за этот факт, но для меня он практически доказан — кто не верит, проверьте такие страницы тем же Majesticseo. Чаще всего они имеют ACRank выше среднего по сайту. Отсюда вытекает следующее:
- Внешняя составляющая играет ощутимую роль при работе алгоритма, накладывающего АГС на сайт. (Про АГС готовиться отдельный пост)
- «Трастовость ресурса по Яндексу» в Xtool — это скорее всего видимость страниц сайта в поисковой выдаче по основным запросам.
Несколько прописных истин
Не все ссылки одинаково полезны. В независимости от того внешние они или внутренние, вес они передают разный. Есть ссылки-картинки, есть сквозняки, есть естественные и покупные ссылки. Естественно, все это вносит свои коррективы в сухую теорию об условном весе.
В пределах одного домена наблюдается склейка анкоров ссылок, что должно влиять на классическую систему расчета условного веса.
Интренет — динамическая система, которая постоянно меняется, каждый день появляются новые страницы, старые документы уходят в небытье. Это также накладывает свой отпечаток на описанную методику.
На этом на сегодня закончим. Спасибо за внимание! Буду рад услышать ваше мнение и конструктивную критику в комментариях.
В xtool.ru кстати есть api для массовых проверок
Я в курсе)))
В xtool.ru кстати есть api для массовых проверок
+1
Статья пришлась как раз в пору, замыслил новый проект, и стал вопрос о тематике. Предыдущие обще тематические проекты не дали желаемого результата. Попробую узко тематическую направленность сайта.