- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ресурс молодой (меньше 3 мес), после первой индексации, "Ян" насчтитал около 11тыс страниц(число близко к реальному), вот пару дней назад заметил, что теперь в индексе только 5 тыс страниц..
Обясните в чем прикол?
Зарание благодарен.
наверное стоит подождать до следующего апа - "найдется все;)"
Глюк скорее всего
У меня такое в Гугле часто. В три раза падает, но потом через пару недель опять востанавливается.
еще варианты есть?
или присуждаем окончательным ответом,- Глюки у "Ян'а" 😕
еще варианты есть?
или присуждаем окончательным ответом,- Глюки у "Ян'а" 😕
На самом деле, информация ПС о количестве проиндексированных далеко не всегда заслуживает слепого доверия.
Смотрите на выдачу и траф. Если сохраняются, значит все путем и с индексом - не из воздуха ж все это берется
Все ли 11к страниц имеют уникальный контент?
Все ли 11к страниц имеют уникальный контент?
Кстати, возможно, страницы "склеились" с копиями на том же или других сайтах. А может, количество кликов с главной превысило допустимый уровень, и страницы стали "недосягаемыми" для робота.
Нужны внешние ссылки на "дальние" страницы. ☝
Кстати, возможно, страницы "склеились" с копиями на том же или других сайтах. А может, количество кликов с главной превысило допустимый уровень, и страницы стали "недосягаемыми" для робота.
Нужны внешние ссылки на "дальние" страницы. ☝
я тож об этом как раз задумался.. и это наиболее вероятно..
думаю тему можно считать закрытой..
всем спасибо.
А может, количество кликов с главной превысило допустимый уровень, и страницы стали "недосягаемыми" для робота.
Вы считаете, что существует некий "допустимый уровень", глубже которого робот в принципе не копает? Это мнение основывается на каких-то конкретных наблюдениях, или просто "так могло бы быть"? Вопрос-то интересный...
Ресурс молодой (меньше 3 мес), после первой индексации, "Ян" насчтитал около 11тыс страниц(число близко к реальному), вот пару дней назад заметил, что теперь в индексе только 5 тыс страниц..
именно.
Из-за молодости сайта, Посиковики считают, что могут с нми делать так же. У меня было пару раз именно таких ситуаций. Примрено через месяц страницы возращаются.