- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну и какие страницы у вас исключаются?
Ну и какие страницы у вас исключаются?
через search-console выявил , что это технические страницы https://site.ru/?action=yith-woocompare-add-product&id=615
У меня сейчас другая проблема получилась! Обновил на WP плагин SEO параллельно обновил sitemap. измененный sitemap вставил в Robots. После этого гугл ругается :
[ATTACH][ATTACH]172767[/ATTACH][/ATTACH]
Ну вы же в роботсе закрыли от индексации страницы этого формата:
Disallow: /*attachment
Вот он и ругается, что вы их пытаетесь через сайтмап ему скормить.
Ну вы же в роботсе закрыли от индексации страницы этого формата:
Вот он и ругается, что вы их пытаетесь через сайтмап ему скормить.
Я надеялся , что у меня все получится , когда удалял эту строку. После редактирования Robots ничего не произошло Так он выглядит сейчас
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
User-agent: Yandex
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed/*/
Disallow: */feed
Disallow: /*?*
Host: https://Sait.ru
User-agent: Googlebot
Disallow: /xmlrpc.php
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /wp-trackback
Disallow: /wp-feed
Disallow: /wp-comments
Sitemap: https://sait.ru/sitemap_index.xml
Так вы сайтмап загрузите заново.
Так вы сайтмап загрузите заново.
Да вопрос в том то , что загружал новый сайт мэпс в robots.
Только может стоит прописать 2 карты сайт мэпс в формате :
Для яндекса sitemap_index.xml
Для гугла sitemap.xml
МОжет у кого какие мысли появятся...
копаюсь я в свой проблеме. Отправил на переиндексацию URL который у меня как пишет гугл закрыт в роботе.
После того как прошла индексация тапаю на урл и вижу такую картину :
[ATTACH]172773[/ATTACH]
Иду дальше и мне предлагают в роботе разблокировать следующие строки. Как быть?
[ATTACH]172774[/ATTACH]
[ATTACH]172775[/ATTACH]
МОжет у кого какие мысли появятся...
копаюсь я в свой проблеме. Отправил на переиндексацию URL который у меня как пишет гугл закрыт в роботе.
После того как прошла индексация тапаю на урл и вижу такую картину :
[ATTACH]172773[/ATTACH]
Иду дальше и мне предлагают в роботе разблокировать следующие строки. Как быть?
[ATTACH]172774[/ATTACH]
[ATTACH]172775[/ATTACH]
Первое вложение не загрузилось заливаю заново.
[ATTACH]172776[/ATTACH]
Да вопрос в том то , что загружал новый сайт мэпс в robots.
Я имею ввиду в Search Console в разделе Сканирование - Файлы Sitemap загрузить файл заново.
Иду дальше и мне предлагают в роботе разблокировать следующие строки. Как быть?
Разблокируйте.