- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну а про контент, не знаю что сказать, он уникален..
У вас на всех тысячах страниц уникальные описания тысяч програм и компьютеров? Или это все-таки краткие описания товара?
Если второе, то из-за однотипности структуры страниц и большого количества одинаковых элементов Гугл не будет все страницы держать в кэше, а тем более, если они у вас меняются каждые пару недель.
Вообще имея сайт магазина, блога, доски обьявлений и т.п. с динамичным контентом и большим количеством страниц не надо ждать, что Гугл проиндексирует все до одной страницы - это, кстати, очень часто только во вред, из-за опасности попасть под "контентные" фильтры Гугла.
Хотя зря я наверно так уверенно про уникальность контента. Это действительно описания программ, с дескрипшном производителя. Неужели гугл хавает дубликат если производителей несколько десятков в базе?
Еще одна банальная причина - низкий PR сайта. При низком PR Гугл не лезет особо вглубь, и не индексирует все страницы.
У него же выпали проиндексированные уже.
Скорее всего контентный фильтр. У меня так 2 магазина заглохли.
Еще одна банальная причина - низкий PR сайта. При низком PR Гугл не лезет особо вглубь, и не индексирует все страницы.
PR=5 это мало?
У него же выпали проиндексированные уже.
Да да, вот это и интересно. Что сначала он сожрал их со скоростью света, а теперь выбрасывает из кэша..
Скорее всего контентный фильтр. У меня так 2 магазина заглохли.
А какова судьба этих магазинов? На что нибдуь хорошее надеется есть смысл?
Кстати про ПР ещё. Все линки только с тематических ресурсов, в достаточном количестве и почти все без обратной ссылки. В общем мёд один.
забил я на них. буд переделывать под нормальные сайты
Кстати про ПР ещё. Все линки только с тематических ресурсов, в достаточном количестве и почти все без обратной ссылки. В общем мёд один.
Если PR=5 - "старый", а не после последних апдейтов, то надо разбираться с контентом. Кстати, может у вас и так достаточно проиндексировано(60-80%)?
А "выпадения" периодически бывают. Гугл сначала наиндексирует много, а потом часть(5-20%) выбрасывает из индекса.
У него же выпали проиндексированные уже.
Скорее всего контентный фильтр. У меня так 2 магазина заглохли.
Заглохли на всегда?
У меня похожая ситуация по датаценнтам стало вместо 160-190, 20 - -1 😮
Но Судя по Toolbar дали PR4....
Не надо беспокоиться. Я такое наблюдаю с сентября 2005 года. Раз в две недели 50% страниц выпадают из индекса, через две недели восстанавливаются........ НИКТО вразумительного объяснения не знает. Контент уникальный. Сайт Английский. ПР достойный.