- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Господа!
Есть ли у Яндекса ограничение на количества проиндексированных страниц отдельно взятого сайта? И если да, то от чего он может зависеть?
Обычно у меня сайты насчитывают 1-3 тыс. разделов и Яндекс всё аккуратно индексирует в течение пары недель, правда через какое-то время часть "выплёвывает" в корзину, наверное фильтром...
Но сейчас я создаю каталог товаров крупного интернет-магазина, где одних только наименований книжек больше 10 тысяч! Неужели всё за раз осилит? Или всёже на основную часть забьёт? Не хотелось бы... чтобы забил :)
Не далее как вчера видел сайт, на который указывалось 57000 бэклинков. Все они были с других его разделов. Так и было "Еще с сайта: 57***". Так что, думаю, осилит)
То, что он осилит - не сомневаюсь. Я имел ввиду, может быть есть какие-то критерии? А главное - в какие СРОКИ осилить это всё сможет? Есть ли лимит при очередном проходе робота?
Сдается мне, на этот вопрос никто, кроме Яндекса, ответить не сможет.
Наблюдались проекты, у которых примерно 65К страниц в базе. Это в разы больше Ваших цифр.
Фиг знает. Если ссылочная структура сайта удобна для робота, то может за несколько недель осилить, ато и еще быстрее.
Если домен не был первоначально раскачан - тоесть поднят с нуля - то придется около 2 месяцев ждать - а то и больше. Главное не переборщите с "оптимизацией" - чтобы не фильтровал - иначе рейтинг понизится (давно замечено) - и заходить будет реже...
Был такой слух, что число страниц в индексе не не может превышать 60К. Причем утверждалось, что Яндекс знает больше, но доступно для поиска только это число.
По поводу числа слух оказался неверным - по крайней мере 150К он допускает.
По поводу второго - не знаю.
Насколько я знаю, Яндекс индексирует все страницы сайта вне зависимости от их числа. Вопрос только во времени. Если какое-то ограничение и может быть, то только на глубину индексации (вроде у Гугла такая есть), но для Яндекса с ней сталкиваться не приходилось. Опять же, грамотная структура сайта снимает эту проблему.
Привет! :)
У меня складывается такое же мнение, просто 150К - это уже экспериментальный факт.
Angelika, привет :)
Экспериментальный - на одном примере или нескольких? Просто логики в ограничении по числу страниц нет. А по глубине - есть. Например мало кто в здравом уме доберется например до 10-го уровня. А оптимум вообще 3-4 уровня.
Опять же, по достижению определенного числа страниц в базе, индексатор может больше времени тратить на переиндексацию старых, чем на индексацию новых - тут уже упирается в лимиты робота.
А кто-нибудь знает те же форумы, у которых проиндексировано более 30K документов. Я что-то не могу найти.