- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте! Проясните пожалуйста для меня такой вопрос
В новой консоли появился отчет "Покрытие", в нем открываю вкладку "Исключено"
И "Заблокировано в файле robots.txt"
Вижу такую картину:
http://prntscr.com/l1k6kq
Прошу подсказать знающих:
правильно я понимаю, что это "накопительный" график, и чем больше страниц со временем на сайте будет заблокировано роботсом, тем больше в итоге получится текущая цифра? или робот через какое-то время проверит все 30 млн страниц, на соответствие директивам и обновит данные на текущий момент?
Что позитивно для этого графика - рост или изменение кол-ва заблокированных страниц в зависимости от текущих потребностей?
Спасибо!
Все в точности как и с графиком трафика.
Наводишь на конкретный день и видишь сколько страниц исключено именно в тот день.
дата1 - количество
дата2 - количество
Если завтра гугл включит 15млн страниц - то завтрашняя полоска станет в два раза короче.