- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс: есть ограничение в 400 стр. в неделю на домен.
В Рамблере есть так-же ограничение, правда его сложно выразить словами.
Казалось-бы можно обойти это ограничение простым разбиением сайта на поддомены (каждому разделу свой поддомен) - сайт будет быстрее проиндексирован и быстрее будет переиндексироваться. Но не тут-то было. Есть прецеденты, когда сайты банили за излишнее разбиение на поддомены с формулировкой "спам".
И вот здесь возникает главный вопрос: где пролегает граница между разумным разбиением сайта на поддомены и "доменоплодящим спамом"?
И в связи с этим всем не кажется ли вам, что разумнее всего в этом вопросе выглядит политика гугля - чем PR больше, тем активнее индексируется сайт?
И в связи с этим всем не кажется ли вам, что разумнее всего в этом вопросе выглядит политика гугля - чем PR больше, тем активнее индексируется сайт?
Мне, например, подобная политика кажется очень большой ошибкой. Вебмастер при такой политике вынужден заниматься не контентом, а накруткой PR, чтобы заставить поисковик проиндексировать свои страницы. А если это молодой сайт, не успевший обрасти ссылками на себя, а его содержание качественное и интересное, то это содержание пройдет мимо заинтересованных пользователей.
да, но с другой стороны политика 400 страниц на домен независимо ни от чего заставляет крупные сайты расползаться на кучу поддоменов
Скорее всё же 500.
По контенту, наверное, надо смотреть. Если одно и то же г.. размазано на кучу поддоменов, то это уже похоже на спам.
Вы сочиняете и редактируете больше, чем 400 стр. в неделю?
Нет, я не сочиняю, но есть крупные сайты, контент на них копился годами, теперь они озаботились индексацией.
Сайт можно переделать, оптимизировать и всё такое, но если он раньше не индексировался вообще (динамика), то теперь после оптимизации он начнет индексироваться, но будет индексироваться ещё пару лет.
Вот и встает вопрос разбиения на поддомены.
А разве это такая редкость - более 400 новых страниц за неделю? А ещё старые есть, давно сильно изменённые, но не переиндексированные.
Я пару раз замечал по логам - роботом рамблера ровно 200 документов проиндексировано за день ...
Вы сочиняете и редактируете больше, чем 400 стр. в неделю?
Одна строчка в скрипте иной раз и больше страниц создает или редактирует...
Хотя... Если бы лимит в 500 страниц был установлен только для новых страниц и еще хотя бы 200-300 для измененных, то это, думаю, всех бы устроило.
Я пару раз замечал по логам - роботом рамблера ровно 200 документов проиндексировано за день ...
А как часто такие дни бывают?