Этой теме уже 2 года. На форуме уже приводились эксперименты которые якобы доказывали существование ограничителя, но не объясняли механизм контроля. Контролировать число переходов на сайт Google может только за счет ранжирования на серпе, чтобы понижать трафик необходимо понижать и позицию сайта. А теперь представьте себе систему ранжирования, основанную на необходимости давать определенное число переходов сайту ☝ При этом учтите, что контролировать необходимо не 5-10, а порой десятки тысяч запросов для каждого сайта, учитывая при этом и другие сайты в топ-10 и надо не забыть еще и о качестве поиска :) Вообщем это настолько же выполнимо, как строить людей по росту исходя из цвета их штанов...
Скрытие текста от пользователя, но не от поисковых систем это спамдексинг. За это могут просто зафильтровать сайт. Опять же, смотря как он у Вас "закрыт"...
И если немного уйти от темы с ранжированием, то напрашивается логичный вопрос: если Вы продвигаете русскоязычные запросы, то почему текст на украинском? 🍿
То, о чем говорите Вы, называется PageRank. Вы оперируете качественными и тематическими (на Ваш взгляд) ссылками, что увеличивает PR страниц и напрямую влияет на ранжирование.
Согласен, не верно выразился. Не множество факторов складываются, а множество факторов оказывает влияние.
"поэтому подобрав небольшую базу тематических и трастовых сайтов мне за несколько месяцев удалось обойти по всем смежным запросам моих конкурентов" при чем тут траст? 🍿
По моим представлениям "Траст" это уровень доверия к сайту поисковиком, который складывается из кучи факторов: возраст, бренд, качество контента, скорость загрузки сайта, и бэклинки в том числе.
ТС, в своем посте говорит о наращивании качественного ссылочного окружения. Т.е. Влияет на один ссылочный фактор, PR. Т.е. Это аналогично ситуации, когда дачник сделает красивый, крепкий заборчик, а будет говорить что отгрохал коттедж.
Вес не будет "падать" т.к. ссылка указывает на страницу с "*&rid=*", которая будет закрыта. Грубо говоря, к вашему магазину будет идти тропинка, которая заканчивается не на двери, а на кирпичной стене :). Наверно в данной ситуации лучше отказаться от реферальных ссылок. А если это невозможно управлять дублями через rel cannonical.
Вашему сайту тоже 10 месяцев и в нем меньше 100 страниц?
P.S. ТС спросил про возможные причины отсутствия трафика, я высказал свою точку зрения. С учетом того, что трафик подбирается к 300 можно попробовать кинуть заявку на участие в РСЯ и вешать рекламу яндекса вместо/параллельно гуглу.
Предположу, что отсутствие трафика с яндекса связано с наличием адсинса на сайте. Если молодой сайт (нулевые пузомерки) начинает набирать трафик по некоммерческим запросам и сливать его клиентам гугла, зачем это нужно яндексу? ;)
Привести сайт к нормальному виду: удалить дубли, протестировать функционал и исправить если где-то не работает, сделать карту сайта.
Где-то год назад для гугла тема была популярна весьма - были сторонники и противники теории, которая заключалась в том, что есть некий коэфициент траста, по которому поисковик "уделяет" трафик сайту. Были эксперименты которые это вроде как-то доказывали, но если вдуматься то реализовать это практически не реально, т.к. в этом случае при построении выдачи поисковику нужно опираться на коэфициенты этих сайтов, а не на факторы ранжирования, и чтобы давать трафик порциями и менять выдачу каждый час. Как вы понимаете, в этом случае нагрузка будет колосальной, а выдача мягко говоря не релевантной, что никому не нужно...🍿