Всё равно мало. Это всё скороспел. Интересны результаты в контексте бизнеса от 3-6 месяцев.
Тогда уже можно вести разговор.
Верно. Зенка - это всего лишь инструмент. Это тоже самое сказать, что молоток слаб для строительства и ремонтных работ.
Все проблемы сегодня в шабах, алгоритмы действий которых Яндекс уже поимел и просто не учитывает накрутки.
Особенно, когда владелец шаба продает его налево и направо с обяхательствовм обновления, а по сути продает мешок дерьма, с гарантиями провала.
И снова верно. В паблике за эти несколько лет не устоялся ни один шаблон в массовой продаже, потому что рабочий процесс требует оперативных обновлений и учёта индивидуальный особенностей и как раз здесь разработчики шаблонов слабы.
Множество примеров (а проще говоря - все), когда продавцы шаблонов предпочитают просто избегать ответственности.
Все рабочие примеры как правило переводятся в приватные группы, либо в узкий круг рабочей команды.
И опять верно. Нет в паблике рабочих шаблонов. И на перспективу не может быть. Полезные знания только в личных наработках и чётком понимании разницы - где Яндекс фильтрует, а где происходит учёт нужных действий. Когда понимаешь и используешь, то чужие шаблоны уже не нужны, нужные рабочие скрипты ты пишешь под себя сам.
Проверяйте по адресу https://webmaster.yandex.ru/site/tools/mobile-friendly/
Вопрос в названии.
Не похожи от слова совсем )
Да, пожалуйста, хотя отдельно вызывает вопрос - почему так?
Поисковик скачивается картинку из атрибута src.
Нет на них никаких запросов, это адреса сформированные последовательностью пользовательского фильтра.
По-моему ты не понимаешь о чём идёт речь, либо о чём-то другом. Когда пользователь составляет наборные свойства в фильтре - это может быть превеликое множество адресов в сессии.
Может быть так:
?filter=312;318;824
а может быть так:
?filter= 318;312;824
а может так:
?filter= 318;824;312
где переменные в фильтре могут указывать лишь на порядковый выбор в переключателях, а результат выдачи может быть даже тот же самый. НЕчего подобным страницам делать в индексе.
Никакие уникальные мета там ловить не нужно, и уж тем более тексты. Это не страницы, это лишь рабочий эпизод, где будут выводиться наборные комбинации из товаров, которые есть в базе.
CCleaner.
За этой "чистилкой" действительно ходит слава "убийцы" Винды. Мне она сносила систему пару раз лет 10 назад и оба была XP.
Всю свою юность, да и сейчас раз в два месяца не отказываю себе в любознательно прошерстить по подписке софтовые сайты и выдернуть оттуда два-три десятка новых программ и обновить версии тех программ, которыми пользуюсь.
Навык и тяга к собирательству осталась еще с начала 2000-х когда активно помогал знакомым и друзьям ставить Windows и равного рода полезняшки, поэтому раньше было портмоне с подписанными дисками, сейчас коробочка с флэшками.
Так называемых "твикеров/бустеров" - утилит чистки и оптимизации ОС перепробовал множество. До настоящего момента на комп всегда ставлю две основные - Glary Utilities Pro и JCleaner. Первая прижилась за ясность, удобств и ни одного сбоя по ОС.
Вторая - чисто субъективно глубже чистит и реально ускоряет загрузку ОС и отклик в рабочих окнах.
CCleaner одно время активно использовал для удаления следов рабочих действий, теперь просто обновляю дистрибутив, - чтобы было на всякий случай (ну вот такой я Плюшкин).
robots запрещает индексацию, но не блокирует учёт пользовательских действий - эту разницу также важно хорошо понимать.
Вот их в индекс не нужно тащить ни под каким соусом, ибо это всё равно нечёткие дубли составленные из комбинированной информации Яндекс наверняка выплюнет их из индекса.
Здесь сразу важно принципиально отличать два понятия:
1) Целевые страницы (как элементы структуры) которые могут быть заданы комбинациями свойств категории/товара.
2) Пользовательские фильтры образованные либо контекстным поиском, либо опционально (с помощью переключателей) в режиме пользовательских сессий.
Так вот, 2-ой вариант, который может формироваться многообразием пользовательского выбора - эти страницы всегда нужно запрещать и для индексации, и для обхода. Canonical к ним конечно прописать можно, но бессмысленно, если мы их исключаем из зоны внимания поисковых роботов.
Если вы оставите открытыми для индексации, то это будут дубли. Помним, что canonical - это лишь рекомендация, а не строгая инструкция, поэтому надеяться на то, что Яндекс всё правильно поймет - не стоит.
В данной логике - да, даст, ибо сигналы буду накапливаться на текущем адресе, таким образом вы будут дифференцировать позитивные сигналы по всему рабочему кластеру, а не сваливать всё в /search/.
Пожалуйста :)