Вопрос в названии.
Не похожи от слова совсем )
Да, пожалуйста, хотя отдельно вызывает вопрос - почему так?
Поисковик скачивается картинку из атрибута src.
Нет на них никаких запросов, это адреса сформированные последовательностью пользовательского фильтра.
По-моему ты не понимаешь о чём идёт речь, либо о чём-то другом. Когда пользователь составляет наборные свойства в фильтре - это может быть превеликое множество адресов в сессии.
Может быть так:
?filter=312;318;824
а может быть так:
?filter= 318;312;824
а может так:
?filter= 318;824;312
где переменные в фильтре могут указывать лишь на порядковый выбор в переключателях, а результат выдачи может быть даже тот же самый. НЕчего подобным страницам делать в индексе.
Никакие уникальные мета там ловить не нужно, и уж тем более тексты. Это не страницы, это лишь рабочий эпизод, где будут выводиться наборные комбинации из товаров, которые есть в базе.
CCleaner.
За этой "чистилкой" действительно ходит слава "убийцы" Винды. Мне она сносила систему пару раз лет 10 назад и оба была XP.
Всю свою юность, да и сейчас раз в два месяца не отказываю себе в любознательно прошерстить по подписке софтовые сайты и выдернуть оттуда два-три десятка новых программ и обновить версии тех программ, которыми пользуюсь.
Навык и тяга к собирательству осталась еще с начала 2000-х когда активно помогал знакомым и друзьям ставить Windows и равного рода полезняшки, поэтому раньше было портмоне с подписанными дисками, сейчас коробочка с флэшками.
Так называемых "твикеров/бустеров" - утилит чистки и оптимизации ОС перепробовал множество. До настоящего момента на комп всегда ставлю две основные - Glary Utilities Pro и JCleaner. Первая прижилась за ясность, удобств и ни одного сбоя по ОС.
Вторая - чисто субъективно глубже чистит и реально ускоряет загрузку ОС и отклик в рабочих окнах.
CCleaner одно время активно использовал для удаления следов рабочих действий, теперь просто обновляю дистрибутив, - чтобы было на всякий случай (ну вот такой я Плюшкин).
robots запрещает индексацию, но не блокирует учёт пользовательских действий - эту разницу также важно хорошо понимать.
Вот их в индекс не нужно тащить ни под каким соусом, ибо это всё равно нечёткие дубли составленные из комбинированной информации Яндекс наверняка выплюнет их из индекса.
Здесь сразу важно принципиально отличать два понятия:
1) Целевые страницы (как элементы структуры) которые могут быть заданы комбинациями свойств категории/товара.
2) Пользовательские фильтры образованные либо контекстным поиском, либо опционально (с помощью переключателей) в режиме пользовательских сессий.
Так вот, 2-ой вариант, который может формироваться многообразием пользовательского выбора - эти страницы всегда нужно запрещать и для индексации, и для обхода. Canonical к ним конечно прописать можно, но бессмысленно, если мы их исключаем из зоны внимания поисковых роботов.
Если вы оставите открытыми для индексации, то это будут дубли. Помним, что canonical - это лишь рекомендация, а не строгая инструкция, поэтому надеяться на то, что Яндекс всё правильно поймет - не стоит.
В данной логике - да, даст, ибо сигналы буду накапливаться на текущем адресе, таким образом вы будут дифференцировать позитивные сигналы по всему рабочему кластеру, а не сваливать всё в /search/.
Пожалуйста :)
Само собой, потому что ссылки ведут на те страницы, которые были на сайте прежнего владельца, вы же начинаете работу с доменом с самого начала.
Для начала разобраться - что это за ссылки, на какие конкретно адреса внутренних страниц они ведут и по каким ключевым словам. Далее, нужно разобраться с тем насколько для вашего нового сайта (текущего или планируемого) эти ссылки согласуются.
То, что не согласуется - можно 301-ым редиректом клеить с Главной страницей. То, что согласуется - склеивайте 301-ым редиректом в соответствии с релевантностью (или хотя бы приблизительной тематикой).
Если прям вообще не тематика даже и отдалёно, то ничего не делайте, пусть срабатывают в 404-ый ответ.
p.s. Тонкий момент. Те анкоры, которые не согласуются с тематикой на Главную клеить не надо. А вот безанкорные ссылки, а также "тут", "здесь", "url в анкоре" можно склеить с Главной вне зависимости от тематики.
Думаю, этот характерный юноша начитался материалов по поводу накрутки посетителей с буксов, которые ему за 1 рубль будут висеть на сайтах.
Обсуждали уже эту тему по-моему даже с ним же..
Во-первых, да. Во-вторых, я очень сомневаюсь, что за рубль там есть какой-то живой трафик (исключая все игровые и серые CPA тематики). В-третьих, накрутка ПФ реализует механизм искусственного завышения CTR запросов, а трафик с соц. сетей - это уже совсем другая история.
Отсев мошенников-накрутчиков, которые на пару дней забьют CTR под сотню - и сольются после последующего падения. Потому что больше ни черта не умеют и не знают.Да и с клиентами проще будет общаться - сейчас очень много тех, кто верит в накрутки ПФ как единственный способ продвижения.
Именно! Людям задурили голову накруткой настолько, что они перестают адекватно воспринимать необходимость развивать свой сайт.