Бог с ним с трастом, опустим его, всё равно никто не знает что это такое... а кто знает тот молчит =)
по вашему получается что роботы начали в дизайне шарить? или как? кстати сайтик про такси - посмотрел главную - нормальный такой СДЛ, дизайн устарел конечно - это кстати противоречит вашей теории о важности дизайна ;) но СДЛ под которым лежит сервис имеющий постоянный клиентов так ли важен сайт? :))
просвети про время попадания в индекс? это для меня новое в СЕО! (правда не пойму как яндекс может определить сколько времени сайт не мог попасть к нему в индекс? )
про тошноту, не помню где-то я в аннотации яшкиной скорее всего читал про жадность алгоритма... т.е. смысл в том, что оптимальная тошнота для каждого сайта определяется индивидуально (кому-то 10 много, а кому-то 20% норма - смысл такой)
плиз выделите жирным ответ на этот вопрос:
а то что-то я не понял...
зато как радует запрос отображённый на второй вкладке браузера :) сразу видно мегапрофи на форум зашёл 😂
да скорее на старом хостинге, он не мог толком сайт индексировать...
хотя наверное, да если так делать, то лучше от гугла закрыть большой сайт тоже, надёжнее будет, а так если именно одновременно делать, то не факт кого он будет пессимизировать...
роботсом закрывайтесь и от яши и от гугла...
поймите, ролботс - инструкция которой поисковики следуют! а то что вы хотите по юзер-агенту фильтровать - это на клоакинг сильно будет смахивать, а то, что все сайты будут проиндексированы - это 100% как вы их не фильтруйте как ни закрывайте...
http://company.yandex.ru/facts/researches/
По юзер агенту не отсечёте... ни гугл не яндекс... всёравно спалят... что трудно юзер-агент сменить им? или вы думаете они никак с клоакингом не борятся?
самый простой и главное чистый вариант это закрыть в роботсе индексацию и всё... в этом случае отреагируют так, что найдут, но в индекс не включат...
чтобы сделать, то что вы написали, надо прятать от яши сайт на поддоменах, а от гугла закрываться не вижу смысла...
для построения определённой картины яшке вполне хватит выборки пользователей пришедших на сайты с метрикой по несущим смысл поисковым запросам...
по другому никак... выбирается контрольная группа и с неё снимается результат, который потом применяется для всех... главное правильно выбрать контрольную группу...
Связь, может быть, но кроме Вас её никто выявить боюсь не сможет ;)
ТС, честно - чушь какая-то...
это вообще что значит?
смысл какой закрывать сайты от индексации? ну пусть вас яша под агс загонит, ну один, два, три... пользователя будут идти с яши через сайт заточенный вами под гугл...
ну у яндекса-то да, я имел ввиду, что большинство рпостых смертных оптимизаторов на эту тему могу только флудить...
а у яндекса есть хотя бы уже только метрика...