Методика получения качественных ссылок

Методика получения качественных ссылок

Методика получения качественных ссылок

Всем добрый день!

Сегодня выкладываю третью статью об исследованиях качества страниц донора на предмет передачи ссылочного веса. В первой статье мы рассмотрели внутренние факторы, влияющие на вес страницы-донора, во второй коснулись внешних факторов и попытались найти инструменты для измерения уровня траста. Теперь пора подвести все к общему знаменателю, ввести некоторые поправки и сделать выводы.

Обобщим обе методики, описанные в прошлых постах:

  1. С помощью PageWeight обсчитываем условные веса страниц сайта, отсеиваем все лишнее и находим с десяток страничек, обладающих наибольшим условным весом.
  2. Проверяем выбранные страницы на предмет исходящих ссылок. В идеале исходящих ссылок не должно быть. Думаю, если одна ссылка на станице уже есть, трагедии не случиться.
  3. С помощью Yahoo и Majesticseo выбираем те страницы, на которые идут ссылки извне. На мой взгляд, тут лучше ориентироваться на показатель ACRank от Majesticseo, чем на бэки по Yahoo, но это уже дело вкуса.
  4. Оцениваем трастовость страниц. Если интересует продвижение под Google делаем упор на показатель PageRank и ACRank. Если продвигаем сайт под Яндекс, анализируем выбранные страницы с помощью Xtool. Все-таки тут немного другая специфика.
  5. Связываемся с владельцем сайта и покупаем ссылки на тех страницах, которые удовлетворяют нашим требованиям.

То есть, на сайте-доноре мы выбрали те страницы, которые имеют максимальные внутренние и внешние показатели, с этих страниц и необходимо получать линки.

Теперь посмотрим на все выше описанное. В чем проблема этой методики? Главная проблема ее в том, что она очень трудо- и времязатратна. Я бы сказал чересчур: PageWeight работает медленно, Majesticseo и Xtool платные и требуют ручной работы. Какие способы решения этих проблем и автоматизации процесса я вижу?

а) Необходим софт для улучшенной организации работы с внутренними факторами. В идеале — залил несколько десятков доменов, задал критерии:

  • отсеивать страницы с tag, archive и т.п. в url;
  • исключить главную и страницы разделов;
  • исключить страницы с 2мя и более внешними ссылками;
  • выводить с каждого сайта по 30 наиболее весомых страниц;
  • экспорт результатов в .txt.

Надеюсь, что в новой версии PageWeight это будет реализовано.

b) Необходим софт для массовой проверки url страниц по следующим показателям:

  • Yahoo;
  • PageRank;
  • ACRank;
  • xt.

В идеале залил .txt документ, экспортированной первой программой и проверяй страницы по различным показателям.

Думаю разработать второй софт значительно легче. В планах заказать нечто подобное и поюзать на практике.

Собственно, на этом можно было бы и закончить. Но хочу поделиться информацией, полученной в результате работы с описанными в прошлом посте сервисами. Сначала хотел оформить в виде таблицы данные, но потом подумал, что пытаться искать зависимость между трастом страницы в Яндексе и зарубежными пузомерками по крайней мере глупо. Так что не буду пудрить мозги читателям своего блога, а просто перечислю несколько интересных фактов:

  1. ACRank пересекается с PageRank, в том случае, если PageRank имеет внешнее происхождение. Оно и понятно: бэки и в Африке бэки.
  2. Проиндексированные странички сайта под АГС могут обладать ощутимым трастом. Логично: если Яндекс оставил эти страницы в индексе, значит на то были причины. На Серче создателей Xtool критиковали за этот факт, но для меня он практически доказан — кто не верит, проверьте такие страницы тем же Majesticseo. Чаще всего они имеют ACRank выше среднего по сайту. Отсюда вытекает следующее:
  3. Внешняя составляющая играет ощутимую роль при работе алгоритма, накладывающего АГС на сайт. (Про АГС готовиться отдельный пост)
  4. «Трастовость ресурса по Яндексу» в Xtool — это скорее всего видимость страниц сайта в поисковой выдаче по основным запросам.

Несколько прописных истин

Не все ссылки одинаково полезны. В независимости от того внешние они или внутренние, вес они передают разный. Есть ссылки-картинки, есть сквозняки, есть естественные и покупные ссылки. Естественно, все это вносит свои коррективы в сухую теорию об условном весе.

В пределах одного домена наблюдается склейка анкоров ссылок, что должно влиять на классическую систему расчета условного веса.

Интренет — динамическая система, которая постоянно меняется, каждый день появляются новые страницы, старые документы уходят в небытье. Это также накладывает свой отпечаток на описанную методику.

На этом на сегодня закончим. Спасибо за внимание! Буду рад услышать ваше мнение и конструктивную критику в комментариях.

 

Вы можете высказать свое мнение к посту Методика получения качественных ссылок и обсудить его с другими читателями.

Комментарии (4) к “Методика получения качественных ссылок”

  1. В xtool.ru кстати есть api для массовых проверок

  2. В xtool.ru кстати есть api для массовых проверок
    +1

  3. fox:

    Статья пришлась как раз в пору, замыслил новый проект, и стал вопрос о тематике. Предыдущие обще тематические проекты не дали желаемого результата. Попробую узко тематическую направленность сайта.

Оставить Ответ

Я не спамер и не робот!