- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Сегодня в Search Console увидел сообщение об ошибках. Кто с таким сталкивался? Буду благодарен любой информации.
Такого не было. Лучше сразу напиши на форум гугла https://support.google.com/webmasters/community?hl=ru
Могу предположить что баг в GSC
Такого не было. Лучше сразу напиши на форум гугла https://support.google.com/webmasters/community?hl=ru
Могу предположить что баг в GSC
Написал на форум, может кто ответит. Страницы поиска в robots.txt закрыты помощью "Disallow: /?s=" почему он их индексировать начал. По другим сайтам все нормально.
robots.txt не запрет конкретный для ботов, а указание. Если есть ссылки внутренние, внешние, популярны эти страницы (часто возникает урл на сайте), он не поможет и это не ошибка, предупреждение. Да и собственно там же есть на справку ссылка.
Можно добавить к страницам с гет параметрами или к конкретному параметру :
<meta name="robots" content="follow, noindex"/>
Или вообще полностью к странице поиска, наверняка у вас стоит сео плагин, в котором можно это сделать.
Но ждать результатов придется долго, к этому надо быть готовыми.
В том и дело что страница поиска по сайту закрыта:
<meta name='robots' content='noindex, follow' />
Может поробовать удалить "Disallow: /?s=" и отправить на исправление? Было такое со страницами пагинации, когда были одновременно закрыты через роботс и ноиндекс.
Да и кто такой на сайте поисковый запрос вводил, сайт русскоязычный.
Может поробовать удалить "Disallow: /?s=" и отправить на исправление?
Не поможет скорее всего. Посмотрите сами, в теле страницы поиска ?s... есть <meta name='robots' content='noindex, follow' />
Не поможет скорее всего. Посмотрите сами, в теле страницы поиска ?s... есть <meta name='robots' content='noindex, follow' />
Да, есть.
Да, есть.
Тогда и возможно, кто-то для каких то целей накрутил такой запрос у вас и может быть есть внешние и ссылки на него, вот гугл и подцепил. Скорее всего пропадет со временем, но не быстро.
Тогда и возможно, кто-то для каких то целей накрутил такой запрос у вас и может быть есть внешние и ссылки на него, вот гугл и подцепил. Скорее всего пропадет со временем, но не быстро.
Ссылок нет, отправлю на исправление, посмотрим что будет.
Ссылок нет, отправлю на исправление, посмотрим что будет.
Не пропадет, так вам этим г.. ежедневно спамят сотнями ссылок ( если не тысячами) - один из видов продвижения в бурженете
- закрыть доступ к webstat
RewriteRule webstat/(.*) https://domen [R=301,L]
- закрыть доступ к /? совсем
как пример для wp
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{REQUEST_URI} !^/wp-admin/ #разрешение для папки админ
RewriteCond %{REQUEST_URI} !^/wp-json/ #разрешение для папки wp-json
RewriteCond %{REQUEST_URI} !^/wp-login.php #разрешение для входа
RewriteCond %{REQUEST_URI} !^/index.php
RewriteCond %{THE_REQUEST} \?
RewriteRule ^(.*)$ /$1? [R=301,L]
</IfModule>
Не пропадет, так вам этим г.. ежедневно спамят сотнями ссылок ( если не тысячами) - один из видов продвижения в бурженете
- закрыть доступ к webstat
RewriteRule webstat/(.*) https://domen [R=301,L]
- закрыть доступ к /? совсем
как пример для wp
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{REQUEST_URI} !^/wp-admin/ #разрешение для папки админ
RewriteCond %{REQUEST_URI} !^/wp-json/ #разрешение для папки wp-json
RewriteCond %{REQUEST_URI} !^/wp-login.php #разрешение для входа
RewriteCond %{REQUEST_URI} !^/index.php
RewriteCond %{THE_REQUEST} \?
RewriteRule ^(.*)$ /$1? [R=301,L]
</IfModule>
Подскажите нубу это где прописать надо?