Непонятные данные индексирования страниц

S9
На сайте с 08.02.2017
Offline
9
1428

Доброе время суток уважаемые эксперты!. Помогите словом по делу

Я совсем новичок, создал сайт для продвижения, ему 3 месяца, неделю назад перешел на шттпс.

Проблема такова: По сайтмапу 300 страниц для индекса, а если смотреть по site: сайт вижу 933 страниц в индексе, открыл так же скрытые файлы, но дохожу только до 13 вкладки Гуугл в 128 странице и дальше поиска нет, что за фигня?!

Тут сразу же набивается следующий вопрос, пока искал все свои страницы врукопашку обнаружил много хлама таких как с ошибками 404, а так же куча фильтров по типу Производитель1, производитель2, характеристика 1.2, которые не несут пользы для пользователя. Можно ли как-то их закрыть все сразу, кроме страниц с сео фильтром от опенкарта?

Заранее спасибо за советы!

PM
На сайте с 05.04.2007
Offline
77
#1
sani90:
Доброе время суток уважаемые эксперты!. Помогите словом по делу
Я совсем новичок, создал сайт для продвижения, ему 3 месяца, неделю назад перешел на шттпс.
Проблема такова: По сайтмапу 300 страниц для индекса, а если смотреть по site: сайт вижу 933 страниц в индексе, открыл так же скрытые файлы, но дохожу только до 13 вкладки Гуугл в 128 странице и дальше поиска нет, что за фигня?!
Тут сразу же набивается следующий вопрос, пока искал все свои страницы врукопашку обнаружил много хлама таких как с ошибками 404, а так же куча фильтров по типу Производитель1, производитель2, характеристика 1.2, которые не несут пользы для пользователя. Можно ли как-то их закрыть все сразу, кроме страниц с сео фильтром от опенкарта?
Заранее спасибо за советы!

Зарегистрируйте сайт в Yandex.Webmaster, не придется искать страницы вручную.

Закройте ненужное через robots.txt

Зачем Вам на сайте сылки, которые не несут пользы для пользователя? Яндекс - это робот, который ходит по ссылкам, и если они есть, то он их съест, а если их нет, то он их не съест.

S9
На сайте с 08.02.2017
Offline
9
#2

Зарегистрирован, "страниц в индексе" яндекс показывает тоже 128, но ведь по siteсайт гуугл мне показывает 950+, какие-то левые страницы сканирует а я не могу посмотреть их. Серч консоль поначалу мне выдавал тоже оишичное юрл я отмечал их как исправленные и все. Можете подсказать как их закрыть?(фильтра), и как быть с сео фильтром?, извините за вопросы, может я ваших глазах выгляжу окунем, но мне надо решать вопрос что бы двигаться дальше)

Hammer8
На сайте с 04.08.2011
Offline
178
#3

sani90, Найти страницы, которые вам не нужны, поставить там тег <meta name="robots" content="noindex, nofollow">

Найти причину генерации, исключить возможность появления дублей с ненужных страниц.

Полный спектр услуг по продвижению сайтов ()
S9
На сайте с 08.02.2017
Offline
9
#4

Мне нужно на каждой странице поставить такой тег?, а как найти эту причину такой генерации?, так же вижу много с пейдж 2,3..., ну жопа просто

кот Бегемот
На сайте с 07.12.2009
Offline
278
#5

У меня на одном из сайтов куча левых страниц как-то появилась после взлома. закинули папку о скриптом, он быстренько нагенерил страниц с внешними ссылками и они мгновенно проиндексировались. Скрипт я удалил, тех ссылок уже тоже нет, но от страниц уже пол-года избавляюсь

Яндекс Директ, Гугд адворс, не дорого и ответственно. Телеграмм @H_Ilin
S9
На сайте с 08.02.2017
Offline
9
#6

Да у меня хз левые они или нет, ведь я их не могу даже пересмотреть, а те что посмотрел просто фильра характеристик вылазят

---------- Добавлено 08.02.2017 в 22:54 ----------

garik77:
У меня на одном из сайтов куча левых страниц как-то появилась после взлома.

Да и ломать меня некому, сайта никто не видет, 50+ места мои)

Hammer8
На сайте с 04.08.2011
Offline
178
#7

sani90, Возьмите любой краулер Netpeak Spider, Screaming Frog, Webbee и даже SiteMap Generator. Посмотрите, если там что-нибудь не нужное. Есть некоторая вероятность, что проблемы нет как таковой.

S9
На сайте с 08.02.2017
Offline
9
#8
Hammer8:
sani90, Возьмите любой краулер Netpeak Spider, Screaming Frog, Webbee и даже SiteMap Generator. Посмотрите, если там что-нибудь не нужное. Есть некоторая вероятность, что проблемы нет как таковой.

Уже столько макулатуры прочитал и перебрал, но походу проблема следующая, у меня в робот тхт стоит

Disallow: /*?sort

#Запрещаем индексировать все страницы с разными видами сортировок, ибо иначе у нас будет десяток дублей одной и той же страницы

Disallow: /*?order

#Запрещаем индексировать все страницы с разными видами порядка вывода, причины те же

Но почему-то гуугл их индексирует, что не так?!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий