Чистка ссылочной массы и фильтрация сеток

Сегодня уже не достаточно просто настроить фильтры и поработать "плагином" с настройками для отсева доноров, нужно копать глубже, чтобы ссылочная масса росла стабильно, без резких "телодвижений".

Обычный механизм работы человека покупающего ссылки - это работа с плагином, а именно начальная его настройка, а дальше уже легче, только контролировать. Я уже описывал проблемы сателлитщиков, при создании сеток, но сегодня не про них, а скорее против них, точнее даже не против вебмастеров, которые делают сайты под продажу ссылок, сколько против тех кто не в состоянии обеспечить безопасность сетки сайтов.

Если Вы находите определенную шаблонность решения, либо подхода к построению сайтов, то немедленно приступайте к анализу доменов, хотя бы по владельцам.

Находите сеть сайтов по владельцу - смело заносите все сайты в черный список, ибо если вебмастер не в состоянии обезопасить сетку от ее вычисления в 3-4 клика, то с большой долей вероятности она очень скоро выпадет из индекса.

Каким способом - не важно, либо настучит кто-то, либо поисковик ее определит.

Тут кто-то может поспорить - но ведь пока она в индексе, пока она работает - ее можно использовать!

Без сомнений, можно, но в один "прекрасный" момент мы обнаружим вот такую картину - массовое выпадение этой сетки.

Очередная сетка-претендент не только на GBL, но и на все остальные фильтры от Яндекса :)

Для нас это значит одно - существенно (или не существенно, в зависимости от масштабов) сократилась ссылочная масса на конкретный проект. А это как раз те самые, не желательные последствия для сайта, которых нужно избегать.

При просмотре площадок, чаще анализируйте владельцев по whois, много интересного откроете для себя, посмотрите кто и чем занимается :) у кого масштабнее сетки и их основные ошибки.

Анализируя чужие сетки сайтов - вы сможете избежать многих ошибок, при построении своей сети сайтов. Яндекс периодически устраивает "чистки" индекса, то что отсеивается на первоначальном этапе, как правило, вылетает (я отслеживаю периодически те сетки, которые вычислил и не купил там ссылки).

Только за сегодня при анализе ссылочной массы было отобрано 4 новых ключевых выражений для фильтра по урлу LF, теперь он составляет 58 ключевых выражений.

Только за сегодня было добавлено 9 новых ключевых стоп-слова для фильтра TF, теперь он составляет 76 ключевых выражений.

При этом фильтры отточены и почти исключают риск ошибок, они действительно отсеивают основной "шлак", который в будущем просто обязан вылететь из индекса поисковой системы с громадной долей вероятности.

З.Ы. нет - фильтры не покажу и не выложу, иначе приспособятся под них, придется больше отсеивать и менять :)