Так а здесь давайте поподробнее. Решил человек стукануть. Открывает требования Яндекса к сайтам и читает:
"Мы стараемся не индексировать или не ранжировать высоко:
- сайты, копирующие или переписывающие информацию с других ресурсов и не создающие оригинального контента,
- страницы и сайты, единственной целью которых является перенаправление пользователя на другой ресурс, автоматически («редирект») или добровольно,
- автоматически сгенерированный (бессмысленный) текст,
- сайты с каталогами (статей, программ, предприятий и т.п.), если они являются только агрегаторами контента, не создают тексты и описания самостоятельно и не предоставляют никакого уникального сервиса,
- страницы с невидимым или слабовидимым текстом или ссылками,
- сайты, отдающие разный контент пользователям и роботам поисковых систем («клоакинг»),
- сайты, предоставляющие товары или информацию по партнерским программам, но не представляющие никакой ценности для пользователя,
- сайты, использующие обманные техники (например, вредоносный код, опасные для посетителей сайта настройки CMS и серверов, вирусы в партнерских программах, вредоносные мобильные редиректы), перенаправляющие пользователей на сторонние ресурсы или меняющие окно результатов поиска на страницы других ресурсов при переходе из поисковых систем,
- сайты, пытающиеся повлиять на поисковую систему путем имитация действий пользователей,
- сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder, clickunder),
- сайты, содержащие списки поисковых запросов (многократное повторение и перечисление ключевых слов), предназначенные исключительно для обмана поисковой системы и манипулирования результатами ее работы, в том числе использование элементов страниц, скрывающих ключевые слова, например, посредством скроллинга или других технических приемов,
- группы сайтов одного владельца/компании, предоставляющие пользователю одни и те же товары или услуги, созданные с целью заполнения нескольких позиций в результатах поиска и сбора трафика,
- немодерируемые форумы, доски объявлений, содержащие большое количество ссылочного спама,
- сайты, ставящие внешние ссылки исключительно для обмана поисковых систем и «накачивания» релевантности и не являющиеся рекомендацией автора посетить ресурс,
- сайты или группы сайтов, интенсивно ссылающиеся друг на друга («линкфармы»),
- страницы сайта с результатами поиска."
Какой пункт ему указать в качестве нарушения?
Я думаю то, что владелец один можно определить по одному хостингу. На самом деле ключевые моменты это полезность ресурса и отсутствие манипуляцией поисковой выдачи. Оба фактора, по моему мнению, в данной конфигурации отсутствуют. Поэтому лично я не вижу причин для санкций.
Насчет количества страниц то это никоим образом не исключает СДЛьность сайта. Особенность успешного продвижения СЧ и НЧ это как раз узкокастомизированные тематики, в которых можно получить преимущество перед громоздкими проектами. И если, например, у меня есть домен стрептоцид.ру, то десяток страниц на нем будет предостаточно.
Я так понимаю если эти сайты поместить на разных IP то вопрос к дизайну отпадет - ведь существует тысячи сайтов на одинаковых шаблонах.
Тут может быть три объяснения:
1. Сервисы подсчета ссылок почему-то "помнят" страницы предыдущего сайта, поэтому всегда добавляют ссылки, которые ранее там стояли. Иногда удобно - можно понять что за сайт здесь был ранее и как продвигался.
2. Учтены noindex и nofollow. В отличие от ПС они их считают.
3. Возможно на сайте вирус, который и ставит ссылки. Посмотрите исходный код страницы.
Вот спасибо. Одно предложение и сразу понятно. Пазл сложился:)
При чем здесь ТИЦ? Это ТИЦ не определен. Опять все напутали😂
Вы только что общались с Яндексом? А поподробнее, я тоже так хочу.:)
По ссылке просто описание с чем он борется. А вот сам алгоритм вычисления этих сайтов не описан.
Сколько факторов и какой степени должны наступить, чтобы настал фильтр?
Насчет сайта.
Ничего запрещенного. Просто висит заглушка, пока нет идей по проекту.
Исходящих ссылок нет, текст 100% уникальный на 2000 символов, в индексе 1 страница, сайт состоит тоже из 1 страницы. Поискового спама нет, ссылки не покупаю.
Если хотите сами глянуть вот http://finsovety.ru/
Возможно у кого-то был опыт соприкосновения с xtool.ru. У меня недавно был случай обвинения моего домена в АГС со ссылкой на авторитет этого чудного ресурса.
Я удивился, поскольку понять, что он настал можно косвенно из панели Вебмастера Яндекса.
Оказывается этот xtool сравнивает количество страниц в индексе сейчас и ранее и делает однозначный вывод о АГС.
Получается если вы удалили ненужные страницы сайта то хтул выдаст АГС.
Если взяли из дропа домен на котором был сайт и повесили одностраничник - АГС.
Таким образом все домены с историей из дропа у меня в хтул светятяся как АГСные.
Писали бы хотя бы "возможно сайт под АГС - причина подозрения - резкое уменьшение страниц в индексе"
Возможно я чего-то не понимаю, но как можно так уверенно ставить диагнозы сайтам в то время как официально алгоритм АГС засекречен Яндексом?
Вот и я о чем. Если на домене была история то это может придать ценности домену (или наоборот). Пустующий домен имеет те же показатели что и свежереганый.
Просто очень много покупателей (возможно с подачи продавцов) считают, что "выдержанный домен" легче продвигать. И таких где-то треть.