- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня такая ситуация:
Сайту 7 лет, но весь контент не был доступен для индексации. Примерно 5 месяцев назад я перенес сайт на новый движок и гугл с радостью начал индексировать и проиндексировал 500.000 страниц. далее примерно 3 недели назад гугл каждый день начал показывать все меньше и меньше страниц и сейчас осталось 88.000. я смотрел по сайтам конкурентов и у некоторых падение страниц тоже наблюдалось в 2 и более раза. страницы не доры. Может быть я зря выложил весь контент гуглу,который собирался 7 лет? Может гугл совсем удалить сайт из индекса за это?
А может причина в другом. Недавно гугл писал, что у них возникли технические сложности с индексированием. и я предпологаю что гугл ввел какието ограничения на количество индескируемых страниц или глубину индексации в зависимости от PR либо от посещений сайта.
Это вопрос или предложение дискуссии?
Вы правильно отметили - глубина индексации зависит от рейтинга сайта и уникальности контента. Возраст сайта - здесь также не последний фактор.
я бы сказал еще внешние ссылки на не проиндексированные страницы сайта могут помочь, хотя как представлю себе объем о котором вы говорите, страшно становится :p
Введение лимита на индексирование для всех сайтов? - это вряд ли... Сделайте удобнее навигацию для сайта + проверьте действительно количество страниц на сайте. Количество страниц может зависить также от движка, если большая часть генерируется динамически...
RomanAS, обсуждалось уже много раз. Гугль регулярно выдает разное количество проиндексированных страниц. Скачки бывают в сотни тысяч раз. Если сайт не пропал из выдачи, не волнуйтесь.
Если бы еще траф при этом не прыгал :)
А вот еще это почитайте http://www.smotrite.ru/s38.shtml :)
Всем спасибо.
Почитал Мэтта Каттса и обнаружил вот это.
"Кроме того, некоторые люди, которые использовали на своем сайте много перекрестных ссылок, могли бы увидеть на странице результатов поиска еще меньше своих страниц, чем ожидали. "
Я действительно добавил месяц назад перекрестные ссылки (на вики в статьях их полно) и может на самом деле перборщил с их количеством? 😕
А может, пока Ваши материалы не были доступны к индексации, она разошлись по инету. И Гугл счел контент сайта не уникальным. Если учесть кол-во страниц - несу бред.
Нет - не разошелся.
Убавил количество контента и сократил количество перекрестных ссылок. посмотрим что будет происходить.
Да еще хотел сказать что переходы сократились на 10% после того как пропало большое количество страниц. надеюсь больше падать не будет.
Если учесть кол-во страниц - несу бред
как раз и не бред :) где его столько уникального набрать ?