Если в поиске остались нужные страницы и редирект работает - (те по факту сейчас на сайте есть ссылки на дублирующиеся страницы, с которых идет редирект и они не участвуют в поиске) то влияние данных дублей минимально.
Может если сайт небольшой и плохо индексируется, то как одна из причин - количество ненужных для индексации ссылок, по которым ходит робот и основные страницы недополучают, так сказать, внимания поискового робота.
Как определил что дубли в твоем случае оказывают негативное влияние на ранжирование сайта?
В теории конечно это так, но в каждом конкретном случае влияние дублей на ранжирование может быть очень разное.
Главное, чтобы у тебя дублирующие страницы не висели в индексе поисковых систем, так как если они там сейчас висят, то на ранжирование это естественно может влиять.
Можешь сейчас еще закрыть в robots.txt по общему признаку url эти страницы, чтобы они не индексировались поисковыми системами.
Идеально будет, если ты устранишь причину появления этих дублей.
Если причину устранить нельзя (например ссылка, которая создает дубль является частью функционала скрипта корзины), то нужно будет каким либо образом подменять ссылку (с помощью js) чтобы поисковые системы не видели ее в исходном коде сайта
Так в посте там пример ссылки дан.
Те фактически перехода как такового из поиска нет, идет через URL "типо" поисковый запрос, и в URL подставлен наш сайт
Если перейдешь по ссылке
http://www.google.ru/url?t&rct=j&q=%d0%bc%d0%be%d0%bd%d1%81%d1%82%d0%b5%d1%80+%d1%85%d0%b0%d0%b9+%d0%ba%d1%83%d0%bf%d0%b8%d1%82%d1%8c&source=web&cd=7&sqi=2&ved=0CFYQFjAH&url=http%3a%2f%2fdomen.ru%2f&ei=WCovWdCKN8SPrge8y4DwAQ&usg=AFQjCNEOObzQaDkdBQvoFVfNzAtVDJIYuw&bvm=bv.84349003,d.d24
То поймешь о чем я говорю.
Я связал переход по запросам и логи к серверу (к каким страницам идут обращения)
Получилась такая картина, что на сервер идут конкретные запросы с такими обращениями
q=%d0%bc%d0%be%d0%bd%d1%81%d1%82%d0%b5%d1%80+%d1%85%d0%b0%d0%b9+%d0%ba%d1%83%d0%bf%d0%b8%d1%82%d1%8c
это ключевое слово
И метрика видит данные переходы, как переход из поисковой системы гугл, а не как переход по ссылке.
Все переходы идут на главную страницу.
И поведение по этим запросам ботоводное:
70% - отказы
остальные 30% - низкие поведенческие факторы и практически нулевая однообразная активность
Такое чувство что настроили определенным образом зеннопостер под эмуляцию живого визита из гугла и снижение поведенческих факторов.
Началось все с июля, в агвусте был спад (40-50 человек в месяц)
Сейчас идет рост - 800 человек в месяц с гугла и процент отказа 70% в общем по поисковой системе гугл.
Учитывая что трафика с гугла итак немного около 1300-1400 и больше половины из них боты с плохими поведенческими показателями, то как по мне, влияние данного трафика может не только на позиции в гугле повлиять, но и в целом по всем поисковым системам.
Я умею пользоваться настройками поиска, поэтому чтобы посмотреть позиции в другом регионе/городе/стране, мне не обязательно там находится.
Если у тебя запрос купить металлодетектор, и на страницах нет кнопок купить, да и вообще возможность купить, то да, это влияет на релевантность категорий/карточек товара для этого запроса и его хвостов.
Miha Kuzmin (KMY), я в курсе что чпу не имеет к этому отношения.
В первом ответе написал что это проблема общего характера (хотя для кого то отсутствие чпу не проблема и сайты нормально себе живут и без чпу).
Касательно вопроса ТС, я ответил опять же в первом ответе в чем может быть проблема
Цитирую
И дополню
Категория не найдена - это ошибка 404, те страница не найдена.
У тебя ранее была страница, которая соответствовала запросу лучше остальных и она проиндексировалсь и выдавалась по приведенному запросу.
Затем страница или удалилась (или изменился url), а в поиске страница все еще висит.
Пользователи, переходя на страницу из поиска видят данную ошибку, так как при изменении url , или удалении страницы, у тебя не был настроен редирект на рабочую страницу.
Проблема в движке.
У тебя есть битые ссылки, которые отдают код ответа 200
Такие страницы индексируются
Пример, ссылка из меню - снаряжение - посуда.
Возможно у тебя меню генируруется в ручную, и когда то страница была, и на нее была корректная ссылка из меню.
Затем ты или изменил страницу и поменялся url, или удалил.
Соответственно появилась ошибка, так как в меню url скорее всего автоматически не меняется.
В тематиках, где высокая/средняя конкурентность, чпу как один из факторов ранжирования стоит учитывать.
Говорить что это один из важнейших аспектов не буду, так как помимо чпу учитывается много более важных параметров сайта (хостовых, технических, поведенческих, внешних).
У ТС по яшке есть позиции в топе и без чпу по словам, которые он привел.
Если взять не регион и запрос с частотностью повыше, то найти сайты без чпу в топе будет проблематично.
На ранжирование могут косвенно влиять.
Через чпу - вхождение ключевого слова.
Также при беклинках на страницы с чпу если ссылаются страницей, то может передаться вес по ключевому слову.
+ через чпу поисковые роботы могут структуру сайта видеть.
Для яндекса как вариант - формирование разделов, быстрых ссылок.
По скорости индексации не скажу ускоряет ли чпу или нет, надо тестить.
В каждом случае все индивидуально.
У ЧПУ много преимуществ, тем более если они изначально на cms настраиваются в пару кликов.
Сейчас конечно когда есть трафик и позиции - переезд на чпу может быть плачевным.
Согласен с Recoba.
ТС, у тебя с доступностью страниц для поискового робота проблемы.
Для немалой части объектов, чтобы добраться роботу до этих страниц - нужно совершить более 30 переходов
Делай карту сайта html, размещай туда все ссылки списком.
Ссылку на карту с главной делай.
На главную и карту сайта закупись твитерами и ожидай переиндексации.
Возьми группу объектов, которая не в индексе, и промониторь посещения этих страниц роботом.
Если после создания карты сайта и заходов робота в течении недельки-двух страница не попала в индекс, то надо с контентом работать.
Еще дополнительно можешь шаблон description изменить, так как он у тебя полностью title дублирует
У тебя проблемы с uRL
Общего характера:
нет чпу
Касательно твоего вопроса:
У тебя генерируются дубли страниц
http://voengrad.by/index.php?route=product/category&path=386
http://voengrad.by/index.php?route=product/category&path=106_386
Соответственно поисковые системы могут эти страницы ранжировать практически одинаково.
И может происходить следующая ситуация:
так как две страницы по запросу у тебя не может показываться в выдаче, берется наиболее релевантная в данный момент.
Из за того, что релевантность практически одинаковая, то какой документ проиндексируется и встанет по запросу заранее сказать проблематично (зависит от дополнительных факторов: внутренний ссылочный вес, поведенческие показатели страницы и т.д.)
И со временем у тебя релевантность между документами будет меняться, соответственно в выдаче по запросу страницы тоже будут меняться, и как результат, просадка по позициям или то, что вышло у тебя со страницей "категория не найдена"
По факту тебе надо в движке избавиться от дублей из хлебных крошек.
И переиндексировать сайт.
Нужные страницы, которые стоят в топ и дает траф - желательно не похерить при устранении дублей.
Сначала проработай оптимизацию по коммерческим запросам, чтобы был профит от магазина.
Информационные запросы могут дополнить сайт и определенные группы запросов.
К примеру у тебя есть категория на сайте: оперативная память
Вместе с этим ты можешь проработать запросы:
сколько нужно оперативной памяти
как увеличить оперативную память
и т.д.
И в информационных статьях неявно предлагать продукцию чтобы не выглядело как спам и прямая реклама или в тупую делать перелинковку с товарами по оперативной памяти.
Тогда может быть профит как в плане трафика, так и в плане продаж (при наличии трафика на статью)
В общем прорабатывай наиболее интересные коммерческие группы запросов и дополняй статьями все это.
Все зависит от твоих приоритетов, времени и возможности писать качественный контент и делать нормальную оптимизацию.
Вот тебе файлик со списком твоих страниц - сюда ээксель вроде нельзя приложить, ссылка на я.диск https://yadi.sk/i/DWus-m5M3NgFBs
Смотри колонку external outlinks - там показано количество исходящих ссылок со страницы.
Почистишь все ссылки и будет тебе счастье
Тут процентов 30 страниц.
Если нужно все, прогони сайт самостоятельно прогой screaming frog