дубли в ситуации со слешем были бы, если страница открывалась как со слешем, так и без него. а в данном случае у автора сайт делал урл без слеша и он зачем-то перевёл всё на страницы со слешем. вот и пытаюсь эту логику понять
зачем вообще этим заморачиваться?? то что в конце url не было слеша для поисковых систем не является ошибкой.
вы хоть сообщение то читали? сайт автора темы склеился с чужим доменом к которому он доступа не имеет. Какая нафиг настройка редиректа?
нужно сам сайт смотреть
По сути больше половины запросов - информационники, по крайней мере Яндекс будет воспринимать их так. И соответственно ваши посадочные будут конкурировать в выдаче не с коммерческими сайтами, а информационниками и их огромными (и скорее всего более качественными) портянками текста.
Это ваша фундаментальная ошибка, а теперь пойдём по конкретным ошибкам:
1) коммерческие факторы - их практически нет, необходимо более подробно описывать услугу и делать это не портянками текста, а конкретной информацией, которую желает получить пользователь (цена, время выполнения и т.д.)
2) нет h1 на главной (ну это уже сказали)
3) отсутствует перелинковка
4) дробите услуги, например малярные услуги можно раздробить на: покраска авто, подготовка к покраске, снятие предыдущей краски, покраска отдельной детали, подбор цвета и т.д. Под каждую такую услугу - отдельную страницу и её заточка под низкочастотку. Когда сделаете много таких страниц (под сотню страниц для вашей тематики вполне реально), тогда будете ловить достаточное количество трафика по низкочастотке, к тому же такой трафик намного более конверсионный. Соответственно это в свою очередь начнёт поднимать ПФ всего сайта
делаешь три новости (часть 1, часть 2, часть 3) с одинаковыми мета-тегами. затем связываешь их канониклами
никогда не удаляйте из выдачи старые страницы, даже если клиентов они уже не приводят!
когда яндекс выкидывает страницы, он указывает причину
1) дубль
2) недостаточно качественная
3) ошибки доступа
у вас какая причина?
если тематика разная и контент разный, то никакой склейки быть не должно
1) удалить эти урлы из индексации с помощью соответствующего инструмента в вебмастере
2) закрыть все технические страницы и страницы ЛК от индексации в файле robots.txt
3) страницы, которые не отображаются для пользователей, потому что у них нет доступа к ним должны выдавать 403 ошибку