Покупка ссылок: классификация параметров для отсева

Работа по покупке ссылок должна быть максимально автоматизирована, но для этого нужно провести большую подготовительную работу. Любой робот будет следовать вашим указаниям, но можно совершить ряд ошибок и испортить казалось бы конечную, отличную, идею.


Только кажется, что на бирже ссылок много ресурсов, на самом деле их нужно расходовать достаточно аккуратно. Поэтому вопрос о правильной классификации параметров для отсева ссылок встает довольно остро.

На самом деле, все фильтры, которые вы создаете – имеют довольно малую корреляцию с эффективностью, а если сказать точнее – то не выбор фильтра определяет его эффективность.

Пример фильтра для SAPE определенной ценовой категории

У меня в аккаунтах присутствует более 50 разных фильтров (если брать все аккаунты в сапе), включая клиентские, но при этом ни они определяют стратегию выбора донора.

Пример фильтра для прокачки по НЧ запросам

Сайт с нулевыми показателями может сработать не хуже чем «с пузомерками», сайт не тематичный может сработать лучше, чем 100% верная тематика.

Еще один пример фильтра, для другого рода задач

Если у вас нет большой выборки сайтов, по которой можно составить белые списки, то придется действовать немного иначе (кстати белые сайты часто становятся серыми и черными , их нужно проверять постоянно).

Основной упор – на формирование черных списков, для этого нужна четкая классификация параметров.

Я знаю достаточно людей, у которых за год-два работы черный список перевалил за 70 тысяч сайтов, при этом многие из них считают это абсолютно нормальным и они не заморачиваются с классификацией параметров.

Достаточно всего одного параметра для занесения площадки в черный список – это не правильный и не рациональный подход.
Чтобы собрать параметры для классификации – придется поработать руками и глазами, частично мозгом. А дальше все полученные результаты должны пойти в обработку автоматом, ведь автоматизация позволяет экономить кучу времени.

Методика отсева по плагину винка такова: LF, H, Cn, TF, ВС, УВ, YAP, YAC.

Первый барьер, который проходят сайты – это фильтр по URL (LF), которым мы пытаемся выявить заранее те сайты, которые имеют довольно большую вероятность к выпадению, а также не желательные страницы.

Как мы видим – у нас уже 2 классификатора:

  • Вероятность бана/фильтра.
  • Вероятность выпадения страницы.

Вероятность бана или фильтра могут иметь достаточное количество сайтов, например это может быть сайт-галерея, специально созданный под сапу, мы ввели параметры:

URL содержит характеристику достойную черного списка

  • Displayimage (галерея изображений)
  • Thumbnails (галерея изображений)
  • dn=photos (галерея изображений)
  • .php?vac_id= (распарсенная база вакансий)

Отмечаем эти сайты и можем смело заносить их в глобальный черный список или черный список проекта.

Следующие параметры – не имеют четкой привязанности к характеристикам сайта, они имеют определенные характеристики страницы:

URL содержащий не желательный элемент

  • User
  • Tag
  • Archive

Этими параметрами мы можем отсеивать системные страницы, которые могут быть в индексе, но будут рано или поздно выпадать, как содержащие дублированный контент, если это страницы тегов или архивов, либо системные страницы профилей юзеров, регистраций и прочего.

URL содержит не желательный элемент, но не нужно его добавлять в GBL

Этот классификатор не дает нам права метить площадку черным списком, ведь это не характеристики целого сайта, поэтому мы отменяем эти страницы, не добавляя их в черные списки, в следующий раз нам придут другие страниц этого сайта.

Надеюсь я доступно объяснил, что есть признаки сайта и страницы, их нужно четко различать, иначе будете "расходовать доноров" не правильно.

Второй барьер – количество страниц в индексе, здесь нужно быть аккуратным. Основная его цель – отсеять сайты попавшие под АГС, по количеству проиндексированных страниц.

Я бы советовал не ориентироваться на показатели SAPE и перед кнопкой Cn (по количеству страниц) нажать H (проверка количества проиндексированных страниц), что позволить получить реальные данные на нынешний момент. В результате мы получим именно сегодняшние данные и сможем нажать заветную кнопку Cn, которая отметит сайты достойные черного списка (допустим содержащие менее 15 страниц в индексе Яндекса).

Третий барьер – контент фильтр или TF. Частично методику я уже описывал, мы можем фильтровать достаточно доноров по разным параметрам. Допустим на сайте есть "porno" и мы его заметили. Если не углубляться в детали – этот параметр достоин черного списка.

Страница содержит стоп-слова в контенте

Но не каждый сайт содержащий параметры, перечисленные ниже, достоин черного списка:

  • Keygen
  • IFolde
  • RapidShare
  • Megaupload

Здесь мы можем либо отменить и нам предложат новые страницы, либо добавить в черный список конкретного проекта (BL), т.к. глобального он может быть и не достоин. TF я касался уже, поэтому не будем затрагивать его детально, отвечу на вопросы в комментариях, если будут.

Четвертый барьер – это количество внешних ссылок, количество внутренних, а также количество контента на странице (ВС).

Здесь все просто – нужно четко понимать, что это характеристика страницы, а значит не подходит под глобальный черный список, лучше всего отменять и нам будет предложена новая страница.

При этом, если мы четко видим 500 внутренних ссылок на странице или больше, то здесь можно и в черный список добавить, перед этим просмотрев донора (часто мы можем встретить плагины пиксельной карты сайта и т.п. – их можно фильтровать TF фильтром), эту часть мы можем смело вносить в черный список, а значит у нас уже 2 классификатора. Но все-таки, я настаиваю на том, что нужно различать параметры страницы и параметры сайта.

Последний этап, который мы проходим – это уровень вложенности (УВ), а также наличие страницы в индексе (YAP) и в КЭШе (YAC) яндекса. Это тоже характеристики страницы, мы не имеем права добавлять такие сайты в черные списки, т.к. делаем выводы лишь по одной странице.

На сегодня мне пришло 5 тысяч 413 ссылок на подтверждение, результаты таковы:
LF для черного списка – 35 сайтов, LF для отмены – 1766 сайтов.
H, Cn для отсева АГСных сайтов – 81.
TF для черного списка – 320 сайтов, TF для отмены – 840 сайтов.
ВС для черного списка – 15 сайтов, ВС для отмены – 2140 сайтов.
YAP и YAC для отмены – 230 сайтов.

В результате при сбалансированной работе у нас в черный список попал 361 сайт, а на отмену ушло 4076 сайтов. Значит из 5 тысяч 413 ссылок мы отсеяли 4976, оставив себе на рассмотрение более детальное 437 ссылок.

Если бы мы по-идиотски расходовали ссылочную массу и добавляли все в черные списки, без классификации факторов, то у нас получилось бы 4976 сайтов в черном списке только за 1 день.

По-моему – это не разумно, а я знаю многих людей, которые так делают, не разграничивая и не классифицируя параметры.

На сегодняшний день, в моем личном аккаунте, за несколько лет, накопилось всего 41 тысяча сайтов, которые отсеивались по очень жестким параметрам, если бы я огульно слал все в черный список, то было бы уже в раза 3-4 больше сайтов.

На аккаунтах заказчиков – меньше черные списки, но и работают они пока что меньше.

А как вы классифицируете доноров при отборе? Есть ли разделение или полутона не для вас и вы видите только черное и белое?