- Добросовестный eCommerce. На первичной этапе мошенники оставляют честные магазины без трафика, поскольку вместо нормальных цен заявляют существенные скидки
- Производители товаров, правообладатели брендов и т.п., поскольку страдает их репутация (сказки менеджеров мошенника про низкое качество, поломки и прочее, и прочее)
Я думаю, что в каждом конкретном случае в отношении отдельного подобного мошенника надо собирать рабочий материал (досье), а именно - прозванивать, делать пробные заказы и обязательно документально фиксировать (записывать) их недобросовестные приёмы работы.
Далее последовательно во все источники, где можно оставить отзывы - проставляете отзывы, где чётко и конкретно поясняете, как эти бизнесмены работают, чтобы люди видели с кем они имеют дело. Параллельно писать в поддержку Яндекса с жалобой на конкретные РК, где они люто занимаются демпингом.
Вы говорите, что эти деятели меняют домены и начинают свою деятельность сначала - резонно. Здесь надо действовать ещё более масштабно.
Наверняка у вас есть свой круг проф. комьюнити, где все друг друга +- знают и также страдают от деятельности подобных мошенников. Вам нужно запустить масштабную PR акцию, где вы совместными усилиями сможете выпустить серию роликов о том, как покупателям правильно выбирать товар и не нарваться на мошенников. Если коллеги и сообщество вас не поддержит - берите инициативу в свои руки. Используя накопленными материал с примерами недобросовестной конкуренции и обмана ожиданий покупателей вы сформируете тренд, что работать нужно именно с проверенными продавцами которые работают уже не первый год. Таким образом постоянно продвигать идею, что продавец без истории может быть лишь посредником и заниматься откровенными манипуляциями (примере сможете продемонстрировать).
Это потребует много времени, сил, безусловно, дополнительных затрат, но надеяться на оперативную реакцию Яндекса я бы не стал, вам нужно самостоятельно формировать рабочие тенденции на своём рынке на долгосрочную перспективу и очищать его от ушлых коммерсов. Конечно, это вопрос не ближайших недель и даже месяцев, на это уйдут годы. Но если вы оцениваете долгосрочную перспективу, то это имеет место быть.
С обновлением Joomla 1.5 вы припозднились лет на 10. Но я вас понимаю, сначала переход на новую версию - это риск, что что-то перестанет стабильно работать, потом, вроде бы, и так всё работает - подождём, а потом спустя 7-10 лет оказывается, что сайт и морально, и технологически окончательно уже устарел.
Я хорошо помню всю эту хронологию линейки Joomla, помню массовый взлом компонентов версии 1.5, и сам сейчас в пол шаге cозревшего волевого решения для перехода на 4-ю версию.
Однако, оставим вводную прелюдию.
Коллеги правильно вам указывают на ключевой вопрос - сохранение URL структуры. Возраст документа и накопленные ПФ характеристики отдельного URL-а - значимый фактор, поэтому при переходе на новую URL структуру просадка будет даже с учётом 301-х редиректов.
Вернуть позиции конечно будет можно (если не накосячить со всем остальным), однако сроки восстановления позиции будут зависеть и от объёма сайта, и от его трафика, и от поведенческих, и от ваших возможностей подтолкнуть сайт по поведенческим.
Модернизировать сайт можно и нужно, иначе, как в анекдоте - можно "Отстать навсегда", но я рекомендую всё же 2-ой вариант. 1-ый вариант - вообще не факт, что он поднимется с очевидным дублированием, поэтому - если сможете сохранить текущую URL структуру - сохраняйте, это значимо поможет сохранить трафик.
А модернизироваться надо, потому как либо ты развиваешься, либо тебя вытесняют.
Да, конечно, почему нет? 😎
Ставьте с рабочим анкором. Одна ссылка никакого негативного влияния не окажет.
Нет, не нужно пагинацию буквами делать.
Пагинацию удобно закрывать для индексации через get параметр, либо через доп. уровень /page/n.
В представленном же случае цифры идут после раздела /catalog/.
p.s. Конечно индексацию можно закрыть постранично через мета тег, но если будет надобность закрыть возможность переобхода этих страниц, то лучше вышеуказанным способом. Да и для читаемости URL лучше, когда будет указатель на пагинацию.
В пагинации - цифры. Но когда они не индексируются, то и не учитываются.
?page=n
Где начиная с ?page индексировать не надо.
Отсекайте get параметры директивой Clean-param.
Использовать цифры в URL-е без особой надобности не нужно.
Как теперь стало известно, для Яндекса это негативный фактор.
Тут дело не в давности. Тут дело в истории сайта. Оно может быть и так, что неделю назад был другой сайт и там были ссылки на десятки тысяч линков.
Потом (несколько дней назад) сайт сменился и поиск будет долбиться по несуществующим адресам еще несколько месяцев.
Вы можете сильно не переживать за хождение Яндекса по несуществующим ссылкам. Если в текущей структуре ошибок нет - это самое главное.
Лучше направьте рабочую энергию на содержание сайта и задачи связанные с удовлетворением задач вашей аудитории - вот это действительно первостепенно важно. А мелкие технические частности, связанные с устаревшими данными не такой уж и принципиально важный вопрос.
C какими конкретно? С 404-ыми?
Всё верно, потому что вы проверяете фактическую навигацию на сайте, а ПС (в частности Яндекс) использует свою историю обхода по ссылкам, которые раньше были.
В идеале - да.
Обрабатывать, либо плюнуть на это дело.
Уже отвечал выше - ПС использует те ссылки, которые находятся в его истории краулинга.
Не нужно. Последовательно закрывайте 404-е ошибки 301-ыми редиректами и всё. Если конечно речь идёт о них.