- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, пожалуйста, по поводу бота Google! Есть 2 сайта, на каждом порядка 5 млн страниц. Оба имеют правильную SEO-структуру: title, keywords, description, h1, перелинковка и т.д. Страницы 1-го грузятся в среднем за 200 мс, второго - 500 мс. Скорость индексации первого - 150 тыс страниц в день, второго - 150 в день (в 1000 раз меньше). Кто-нибудь может это объяснить?
Со 100% гарантией никто не скажет, кроме самого гугла конечно
Есть 2 сайта, на каждом порядка 5 млн страниц
Кто-нибудь может это объяснить?
..........
..........
не понял, что это значит
не понял, что это значит
5 млн. очень много
не факт, что будет вообще индекс всего
не понял, что это значит
Есть 2 сайта, на каждом порядка 5 млн страниц.
От куда???
Испугался Google, у него у самого столько нет. За глаза подробнее никто не скажет.
Испугался Google, у него у самого столько нет. За глаза подробнее никто не скажет.
тем не менее второй сайт хорошо индексируется:)
Скорость загрузки где меряли?
По экспериментам на позиции влияет скорость ответа сервера, Time to first byte, а не скорость загрузки контента, так как 2 страницы могут быть разные по размеру, в одной нет картинок, в другой много. Или видеоплееры типа ютубов.
Влияет ли это на скорость индексации неясно.
На скорость индексации влияют ссылки, а именно их pagerank (не тулбарный, а реальный).
Цитата:
Это привело нас к одной из самых главных проблем многостраничных сайтов — к проблеме индексации всех страниц.
Представьте, что сайт Amazon.com новый сайт, тогда сколько же времени потребуется Google чтобы проиндексировать все 48 миллионов страниц. И тут утверждение Мэтта Каттса о том, что это было бы не возможно, если у сайта не было бы бэклинков, является правдой.
Для эксперимента мы взяли домен без истории (никогда нигде ни регистрировался, ни одного бэклинка). Затем на этом домене мы создали страницу с 250 ссылками, ведущими на страницы с еще 250 ссылками и т. д. Ссылки и URL были пронумерованы от 1 до 250 в таком же порядке, как они идут в исходном коде.
Мы добавили URL в поисковик с помощью "addurl". Так как домен не имеет ни одной обратной ссылки (бэклинка) следовательно у него нет PR, либо он совсем ничтожен. Если же слова Мэтта Каттса действительно являются правдой, Googlebot должен практически сразу же остановить индексацию данного домена.
Количество просмотренных ботом страниц за первые 24 часа
Как видно из диаграммы, Googlebot начал просмотр сайта со скоростью примерно в 2500 страниц в час. Через три часа он замедлился до 25 страниц в час и с такой же скоростью продолжил просматривать сайт на протяжении последующих месяцев.
---------- Добавлено 05.12.2015 в 20:42 ----------
Поэтому быть может на тот сайт, который хорошо индексируется стоит жирная ссылка с главной, или сквозняк со всех страниц более-менее жирного сайта?
Скорость загрузки влияеи 100%. Если сайт "ложится" под ботом, то частота сканирования снижается.
Влияет еще директива crawl-delay в robots.txt, там может быть замедление.
бот игнорирует непонятные директивы