- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У оптимизируемого сайта был переделана карта сайта, чтобы дать проиндексироваться страницам, на которые был доступ только из меню на JavaScript. В результате гугл обнаружил на сайте дополнительные 7000 страниц и засадил сайт под фильтр. То есть сайт улетел по основному ключу с 3-5 страницы на 15-17.
Как можно выбраться из-под этого фильтра? И сколько времени примерно держат под этим фильтром, если сайт обновляется в естественном режиме (в магазин иногда добавляют товары)
7000 добавилось ко скольки старым? Если еще к 7000 - то через полмесяца-месяц выпустит.
Зависит от возраста домена, думаю что от зоны тоже.
роботсом можно прикрыть страницы без контента
случаем не осКоммерс в качестве ЦМСины?? просто имел проблему попадания под фильтр с сайтом на базе ZenCart...
PS: под фильтр улетел дмозенный сайт - я в шоке был :)
Изначально гугл знал около 800 страниц, это были страницы категорий. До товаров гугл добрался только сейчас. Так что сайт вырос как минимум в 10 раз. Хотя в один день гугл выдал аж 22 тыс. страниц проиндексированных, но уже на следующий день вернулся к значению около 7 тыс. Глюк что ли...
Сайт на греческом языке. Домен GR. Зарегистрирован в 2003 году.
Вообще в нашей зоне работают самые простые фильтры гугла. И по слухам у нас нет даже песочницы. Конкуренция в сегменте более чем маленькая.
То, что это именно фильтр, я уверена, так как по данному запросу уже на второй странице выдачи начинают повторяться те же сайты, что есть на первой страницы. Я уже не говорю, что в выдаче есть почти левые, нетематические сайты, на которых просто найдены ключевые слова
Yana, фильтр too many pages at once, налагается на появление более чем 5000 новых страниц в месяц. Накладывается также на месяц. Терпение :)
На будущее - добавляйте хоть по 1 млн. новых страниц на сайт, но открывайте их для индексации по 5000 страниц, лучше - чуть меньше ;)
Ну и не забывайте о его родной брате - 2 many links @ once :)
Ну и не забывайте о его родной брате - 2 many links @ once :)
Ту мэни - это сколько? У нас белых каталогов всего 40 штук, хотя ходят слухи, что норма количества ссылок на сайт рассчитывается на основе количества сайтов в данном языковом сегменте...
Yana, фильтр too many pages at once, налагается на появление более чем 5000 новых страниц в месяц. Накладывается также на месяц. Терпение
Месяц после окончания их индексирования?
Я вот тоже сижу и жду сейчас. Сайт имел 10к проиндексированных страниц, добавил еще 100к новых, как дошло в индексе до 50к, сайт ушел под фильтр. Сейчас продолжает индексировать, уже 70к.
Накладывается также на месяц.
Вот интересно, мне отсчет делать с того момента как попал или когда проиндексирует весь сайт?
З.Ы. Кажется повторился с вопросом.
фильтр too many pages at once, налагается на появление более чем 5000 новых страниц в месяц. Накладывается также на месяц.
Константин, откуда настолько точные данные? :)
Интересные данные относительно кол-ва страниц. А если на сайте 20 страниц, то можно смело добавлять 4999 и все будет ОК? :)
Интересные данные относительно кол-ва страниц. А если на сайте 20 страниц, то можно смело добавлять 4999 и все будет ОК?
наврядли, пример выше, ушел под фильтр когда прибавилось 40к страниц, до этого спокойно индексировал по 2-3к в сутки и был на месте. Должно быть какое-то соотношение, если по моему подопечному, то получается увеличение в пять раз, а не на 5000 страниц.