Точно такое же дутое утверждение как и то что: все сайты, которые манипулирую выдачей и нарушают лицензию Гугла страдают от этого. Вопрос даже не в том влияет или нет, а на сколько его влияние значительно?!
Живой пример: есть сайт с длительностью пребывания на сайте пол минуты. Если я нагоню туда трафа - даже не важно каким способом. Часть ботов, часть прокси, часть живые серферы, повешу видео и повысится время нахождения на сайте чуть ли не в два-три раза.
Вопрос - ты думаешь от этого поменяются позиции сайта?
Я не уверен в этом.
Делай как все - не говори Гуглу что ты его парсишь
То что ты говоришь - параметр, который говорит сколько пользователь сидит на сайте, а не показатель отказов. Тема очень скользкая, однозначности тут явно нет.
А верить всему что говорят не стоит. "непросвященные" люди слышат о том, что манипулировать выдачей нельзя, за это могут быть санкции, тут и правила Гугла и т.д. Но все мы знаем что это делать можно и даже нужно )
Вот тут точно также. Если бы была возможность выбора - понятное дело чем больше людей находят информацию и показатель отказов меньше тем лучше, но это не на столько влияющий параметр, чтобы за ним гнаться и пытаться на него влиять отдельным образом. ИМХО
Чтобы понять выпали они или нет для начала хотя бы о каких позициях идет речь. Как они вели себя в динамике.
В данной тематике бюджеты мягко говоря не маленькие, поэтому вполне может оказаться что ты просто находишься там, куда тебе удалось добраться на этих ссылках.
Операторы link и колчиество бэков в панели понятие условное. Гугл не показывает то что видит, а то что видит не факт что учитывает.
ПР вообще не показатель, тем более что у тебя сквозняки друг на дружку нагнали не кисло. Что-то более конкретное тяжело сказать по входным данным.
Доноры размещены на одном хостинге с продвигаемым сайтом?
Что из себя представляет продвигаемый сайт: старый, трастовый ресурс или тоже стартонул недавно для эксперимента?
Этот ВЧ запрос - продвигаемый сайт по нему уже был на 1 странице выдачи, или это рекордной значение позиций для него?
Контент сайтов-доноров пересекается? Или это абсолютно разные материалы в наполнении?
А точность в 100% и не нужно. Достаточно с большей долей вероятностьи определить что это сетка )
Вот есть основной сайт. На него ставятся с сателитов. Делается анализ этих сателитов, если с них ВС идут только на пару доменов - можно с определенной уверенностью сказать что он создан для прокачки тех сайтов, куда стоят линки.
Далее смотрится основной сайт и ссылающие на него сайты. Если среди них есть довольно значимая доля таких же сайтов - можно с уверенностью сказать что это сеть для прокачки. Ну и дальше разные мелочи - хуизы, ИП, нс-ы - все это мелкие +1 в сторону что алгоритм думает правильно и сеть можно попустить. )
Хотя если разбавить ссылочную массу всем участкам сети, сделать случайные связи с википедией и качественными сайтами ниши - все будет ок.
Поэтому тут как впрочем и везде вся прелесть в нюансах ) Если тупо залинковать - палевно, если сделать грамотно - нет. Но если в голове крутятся такие коварные мысли о разбавлении ссылочной массы, случайные связи с сайтами и .д. - тогда не будет возникать такой вопрос насчет перелинковки. Поэтому если ТС задает такие вопросы, ответ один линковать не стоит )
Ну и собственно сам смысл нужно для начала понять. Если это молодняк - то толку с такого?! Ссылочного мизер, а риски возрастают. Поэтому для начала как минимум прокачать их поотдельности, а тогда уже и думать насчет линковки
Объяснить все на пальцах. Лучше в письменном виде, чтобы дошло до спинного мозга. После этого как заказчик будет проинформирован и ему дойдет - пусть решает сам уже.
Это не будет твоя головная боль, тут главное дать ему понять что решение только за ним и выссказать свои соображения по этому поводу. Ну а писменный вид - чтобы потом было чем оперировать ) Бумажка она ж лучше, чем со слов )
Знает, просто он через чур верит в тебя как вебмастера и твой сайт и поэтому не рубит все с плеча. ) Как только таких мелких огрешек станет больше определенного количества - сразу получишь пилюлю и потом придется делать то, что нужно было сделать при самом старте.
Видать тебе не приходилось сталкиваться с сайтами, которые за счет тегов имели массу дублей и информативные страницы не были нормально отранжированы из-за этого.
Ну а по поводу ценности тегов для посетителей - это вообще утопия.
Нет. Теги - это мусорные страницы, которые можно оправдать только с точки зрения "удобности" для посетителя и то я в этом очень сомневаюсь.
Теоретик?!
Какое отношение спамные, неконтролируемые теги имеют к толковой внетренней перелинковке?
Чтобы не выглядело так - сразу убери их. Для ПС нужно оставлять только информативные страницы. Теги к таковым не относятся. Если сайт просто ГС, или нужно его максимально раздуть - то да. А так то теги практически зло.
Напиши Гуглу гневное письмо по этому поводу, а еще лучше подай на него в суд раз у тебя такой трастовый сайт и есть авторские права на все то что у тебя выложено.
Варез маст дай (с) Google - вот это одна из последних идей этой ПС. А судя по тому как Яндекс любит копировать своего старшего брата - аналогичная чистка с его стороны не за горами.