Axa-Ru

Рейтинг
121
Регистрация
21.03.2016
sergey885 #:
У меня сайты не на вордпресс. Часть страниц была закрыта в роботсе и с тегом noindex. В консоле гугл ругнулся. 
Начал гуглить и где-то прочитал чей-то коммент из гугла, мол, если страница закрыта в роботсе и ноиндексом, то это плохо, дайте мол роботу туда зайти, полноценно сожрать ноиндекс и делать там что он хочет. Ок, открыл в роботсе, послал валидейшен фикс, ждууу…

Я кстати про это писал выше, удалил из роботса запрет на индексирование и отправил на проверку.

Я вот думаю родной поиск закрыть и поставить от гугла. 
megaseo112 #:

Отправлял, бесполезно, их вроде было больше, одни удаляются, другие тут же появляются. Каждый день причем новые.

Значит как человек выше писал это уязвимость и кто-то спамит. И давно они у вас появились?

megaseo112 #:

Аналогичная история. Тоже сайт на вордпресс. В серч консоли 600 проиндексированных, несмотря на запрет, страниц с такими же кракозябрами. Так и не разобрался, как от них избавиться

Вы на исправление отправляли. У меня пока 4, но думаю это только начало.

Barnabas #:

Была идентичная проблема, у вас видимо сайт на WP и они спамят через строку поиска  site.com/?

Вам на хостинге надо собрать все страницы сгенерируемые  этим поиском и удалить, и поставить код ответа сервера 404

Потом закрыть уязвимость, через месяц уйдет из индекса.

Удачи!

Да сайт на WP, спасибо за информацию.

garry69 #:

Тогда и возможно, кто-то для каких то целей накрутил такой запрос у вас и может быть есть внешние и ссылки на него, вот гугл и подцепил. Скорее всего пропадет со временем, но не быстро.

Ссылок нет, отправлю на исправление, посмотрим что будет.

garry69 #:

Не поможет скорее всего. Посмотрите сами, в теле страницы поиска  ?s... есть  <meta name='robotscontent='noindex, follow' />

Да, есть.

В том и дело что страница поиска по сайту закрыта:

<meta name='robots' content='noindex, follow' />

Может поробовать удалить "Disallow: /?s=" и отправить на исправление? Было такое со страницами пагинации, когда были одновременно закрыты через роботс и ноиндекс.

Да и кто такой на сайте поисковый запрос вводил, сайт русскоязычный.

Nixenz #:

Такого не было. Лучше сразу напиши на форум гугла https://support.google.com/webmasters/community?hl=ru

Могу предположить что баг в GSC

Написал на форум, может кто ответит. Страницы поиска в robots.txt закрыты помощью "Disallow: /?s=" почему он их индексировать начал. По другим сайтам все нормально.

lkm #:

Нормальный CTR, о чем ты говоришь вообще. У тебя же бурж.

У меня от 7 до 10 ctr. Ру трафик на 90%. В бурже конечно цена клика не сравнить с ру.

Всего: 719