- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Похожая ситуация, с каждым днем страниц в индексе все меньше и меньше (на 10-20 уменьшается).
В вебмастере гугла:
Я думал это из за сапы, но теперь сомневаюсь.
Кто нибудь знает как сделать, чтобы гугл опять все индексировал? Помогут ссылки с хороших ресурсов?
Что в основном индексе можно увидеть так - http://www.google.com/search?q=site%3Asite.com%2F%26
Это то понятно. А вот как вытащить только страницы, не вошедшие в основной индекс? Давно задавался этим вопросом, по моему ни как.
У меня такая же проблема была.. очень похожые числа.. и ничего не смого изменить... 😒
То, что страницы вываливаются из индекса, это нормальное явление. Не путайте гугл 2009 и гугл 2002. Раньше у него была задача иметь в индексе весь интернет. Теперь он сменил приоритеты. Сейчас он держит в индексе только необходимый минимум. Чем старше сайт, тем больше страниц гугл держит у себя в индексе, но и то не все. Просто на старых трастовых пиаристых сайтах планка необходимого и достаточного количества страниц выше, чем на новых.
Как всё происходит... Гугл индексирует страницы и выкладывает их в серп. Затем смотрит, какие страницы посещаются, а какие нет. Ни кем не востребованные страницы с низким весом он выкидывает. Сохранить не посещаемую страницу можно лишь путём напиаривания. Но, разумеется, качественно напиарить все страницы практически не возможно (если их много).
Если подкупить жирных ссылок на ресурс, количество страниц в индексе начнёт сново расти, но через несколько недель, если не увеличивать кол-во беков, страницы сново начнут выпадать.
Nowel добавил 31.08.2009 в 11:00
Могу ещё добавить... основной индекс, или не основной, по большому счёту это мало на что влияет. Заходы с поисковика идут как на страницы из основного индекса, так и на те, которые там отсутствуют. С другой стороны, страница может находится в основном индексе, но в поисковую база она может быть и не включена. Найти её не возможно даже по уникальному запросу.