Да пинать то никто не будет, у вас цели и сегмент другой. Но, что мешает в поиске фильтровать по цене, к примеру оптимальной? Я лично так и делаю, когда мне не нужны мелочные проекты или совсем хлам. А иногда и включаю, вдруг среди хлама алмаз завалялся? ) Фильтры - и никаких проблем.
В остальном - посмотрим. Пока что - неоднозначное мнение.---------- Добавлено 24.01.2017 в 23:49 ----------
Дельная мысль, хотя я больше склонялся к тому, что хотят перейти в разряд "только для богатых" + "элитный гарант" и не распыляться. Видимо посчитали, что достигли уровня узнаваемости. В любом случае время покажет, стоила ли игра свеч и доросли ли правда до нужного уровня.
Вопрос простой. Что у вас за пачка идентичных сайтов? Они сами по себе легальны, или это и есть фишинг сайты, которые вы пытаетесь маскировать? Если ваши сайты "белые и пушистые" - можно побороть и найти проблему. Достаточно проанализировать все подозрительное, исключить плохую рекламу и скачивание и тд. Но, если же вы пытаетесь найти решение маскировки фишинга или втюхивания ПО со "спутниками" - то у вас мало что получится. ПС, думаете, просто так свои браузеры запилили? Фактически, отслеживание идет на уровне пользователя и его компьютера, а значит никакие серверные манипуляции вас не спасут.
Когда вы ответите на этот вопрос - можно будет понять, имеет ли смысл борьба и борьба ли это в целом.
Необходимо смотреть, что именно вы постоянно отдаете пользователям. Файлы, материалы для скачивания? Есть ли какие-то партнерки. Что от вас получает пользователь. А так же - редиректы, прописанные или скрытые. Которые могут перенаправлять пользователя и без вашего ведома.
Без пациента вам точно ничего никто не скажет. Ну и раз код у вас копируется постоянно по разным сервакам и доменам - значит проблема мигрирует вместе с ним.
Не основной, а поддомен, который "клеите", закрывать в роботс для ботов гугла в Disallow. Тогда у Гугла не будет дубля контента, основным и существующим реально будет основной. Но, при этом, переезд для гугла будет не очень верным. Вообще, как по мне - гугл не будет париться по поводу дубля контента. Особенно в вариации домен-поддомен. А вот для Яши - все верно, если не дождетесь переклейки зеркал - потеряете трафик. Я бы уже оставил как есть и ждал склейки, что бы потом поставить 301. Ну и подтолкнуть еще пару раз Платонов, они иногда, если повезет - помогают ускорить решение затянувшихся проблем.
Как произошло? У вас не настроены редиректы, а по умолчанию у хостера могут быть подняты как http, так и https. Бывало у клиентов, проходили. Боты обнаруживают, что по https есть ответ по этому домену и его начинают выдавать как основной.
Что делать: если https работает корректно, то просто сделать редирект, выше уже написали как. Если не корректно, то либо сделать валидный https+redirect, либо https надо ложить, а в ВМТ и везде прописывать, что главное зеркало - http.
В любом случае теперь надо корректную отдачу на https делать и потом редирект, ну, или раз уж такая малина - сразу переводить сайт полностью на https, все равно скоро гугл хочет по этому поводу иметь мнение )
А по моим прикидкам, статьи, написанные для моих проектов - сразу в ТОП-1 должны быть, а чет не срастается )) Наверное Яндекс научился понимать, что в статьях все те же 33 буквы алфавита ))
Had, если хотели пошутить - получилось. Если серьезно - то странный вопрос ) С каких пор "качество" статьи вдруг стало единственным фактором ее ранжирования?
Можно, но не обязательно. Товарищ, который и заварил тему своими ошибочными "знаниями" и в этом моменте связал index,follow с canonical, так же как зачем-то с ним связал и директивы rel/next. Почему и вы их связываете? Какое практическое значение вашей связки? Это РАЗНЫЕ директивы, обрабатываются ботами ОТДЕЛЬНО. Они не обязаны друг быть в какой-либо логической связке.
Почему rel="canonical" с нофоллоу? Да потому что каноникал проставлен движком, а шаблонные движки не имеют даже базового сео, практически любой движок требует допиливания до сео, что ВП требует плагины, что Джумла, что остальные. Много вы знаете движков, которые сразу сео учитывают? Сомневаюсь. Но движки ставят правильные каноникалы. На все страницы. Либо при помощи плагинов, и тоже на все. Это логично же. А вот страницы далеко не все при этом нужны в индексе. Потому на те, что не нужны по мнению Вебмастера - ставится ноиндекс. Потому вполне логично, что пачками ноиндекс+каноникал, но эти директивы РАЗНЫЕ и друг другу не мешают и отношения друг к другу не имеют от слов "никакого, совсем".
Много по каким причинам не берут )
А камменты на это г.. о да, как только будут камменты - сразу возьмут! )
Как я и сказал - может быть зашифровано. 🍻
Сделали всю работу за ТС ))
Оба варианта - верные. Но, в первом случае СЕО-оптимизаторы решили, что страницы пагинации не имеют ценности и сливают их потенциальный вес в страницу категории, главную, первую, которая обычно несет в себе еще и СЕОшный текст. Второй случай - классическая пагинация со всеми страницами в индексе. Технически - оба варианта верные. СЕОшно, на мой взгляд, первый вариант - предпочтительнее.---------- Добавлено 15.12.2016 в 18:28 ----------
Модульность, шаблоны. Проставилось и забыли. Смысл вычищать, если все верно и все равно в ноиндекс. Если разбирать большую часть шаблонных движков - там вообще много чего наверчено абсолютно лишнего. Просто не у всех есть деньги, что бы оплатить создание сайта с нуля и только с тем функционалом, который требуется.