- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
письмо от гугл
Новые проблемы detected
С помощью Search Console мы выявили на Вашем сайте новые проблемы (количество: 1), относящиеся к категории "Покрытие".
Посмотрел, 2 страницы попали в индекс, хотя заблокированы в роботс
Какого хрена? Как это?
Эти страницы вобще не страницы, а инфа из модальных оконо, я закрыл их от индексации, зачем гугл это делает?
Увы такое иногда бывает, с индексацией уже год проблемы как в одну так и в другую сторону, если страницы ненужные то ноиндекс а вот если модальные окна - только ждать пока пройдёт болячка
Гугл может индексировать страницы, закрытые в robots.txt если на них есть ссылки.
https://support.google.com/webmasters/answer/6062608?hl=ru
Гугл может индексировать страницы, закрытые в robots.txt если на них есть ссылки.
https://support.google.com/webmasters/answer/6062608?hl=ru
При чем он это может делать выборочно ( у меня на им из миллиона страниц фильтрации почему то 4 проиндексированы , ссылок на них нету)
закрыл их от индексации
Закрыли, как гугл рекомендует?
А понять, что роботс.тхт управляет только сканированием, а метатег только индексированием не судьба?
robots не всегда проверяется, т.е. проверило и работает, есть время устаревания robots. А то бы робота дергало на каждом запросе.
А понять, что роботс.тхт управляет только сканированием, а метатег только индексированием не судьба?
в этом то и прикол - http://prntscr.com/n07h7g
страницы закрыты ноиндексом , как и все остальные - но вот почему то именно эти 9 и все , из миллиона
старый глюк новой консоли, просто отправляешь на проверку и через 1-2 недели приходит "усе в порадку", но без извинений :)
Если ссылки на закрытые страницы стоят на видимом месте сайта, то гугл с вероятностью 80% их проиндексит. Роботс это набор рекомендаций, а не строжайшая доктрина.
2 страницы попали в индекс, хотя заблокированы в роботс
зачем гугл это делает?
Чтобы его пользователи могли найти то, что ищут,
но это не индексация, а ссылка в выдаче...
У вас именно проиндексировано?