Представьте вложу душу и терпение и через два года не двигаться в топ. От предыдущих хозяев фильтр. Получиться куча денег на ветер.
Я не искала домен с историей, я просто искала любой домен и увидела красиво запоминающийся домен и он оказался с историей.
Да скачки по доходам это вообще жесть. Сегодня по сравнению со вчерашним днём будет -50.
По-моему пожалеет в двух случаях:
Ну, вот видите, что то начинает выкристаллизовываться.
Сейчас Вы утверждаете, что лимит сканирования - это несколько устаревший термин с безрамерной величиной, хотя ещё в 9:30 утверждали (цитирую) - "Среднее количество просканированных страниц - это и есть условный лимит сканирования. ".
Для меня он разделяется на 2 базовые величины:
По редиректам я с Вами согласен. Ни кто не любит, когда его гоняют туда-сюда по 10 раз, поэтому редиректы свожу к нулю (вообще не люблю этих фокусов).
Я думаю с этими двумя факторами (время и объём) и может работать напрямую веб-мастер, дабы сделать привлекательнее и удобнее свой сайт и для сканирования краулером и для просмотра с браузера пользователем).
Спасибо за внимание.
Хотелось бы услышать Вашу версию.
Опять же - без обид. Что бы разъяснить и себе и тем, кто нас будет читать, что вкладываем в смысл одного и того же термина.
Я практик на потоке. А в данном случае мне неясна суть ваших затруднений. Вот объём сайта. Вот среднее число страниц краулинга. Вот логи. Чего вам не хватает для решения задачи, и в чём суть этой задачи?
Хорошо.
У меня затруднений особых нет.
Просто вы налегке даёте ТС совет (цитирую) - "Проверяйте также лимит сканирования."
Меня заинтересовало как Вы его определяете и я начал задавать наводящие вопросы, надеясь, что ответы будут интересны не только мне, но и другим читателям. Далее последовало: - "В Search Console - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться."Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент. "
Так вот - объём сайта (в страницах) делённый на среднее число страниц в день даст только количество дней, необходимых для сканирования данного сайта. Ничего более. Это же элементарная алгебра с соблюдением размерностей. Ни а каком вычислении лимита сканирования (сначала надо определиться что это и в какой размерности вычисляется) по Вашей формуле идти речь не может. Ни с поправочными коэффициентами ни без (кстати непонятно из каких соображений выбирается так называемый поправочный коэффициент и его величина).
Вы и своим клиентам так налегке втюхиваете речи с вкраплениями технических словосочетаний типа "поправочный коэффициент", "среднее число страниц краулинга", "надо отталкиваться от медианных данных", "в этом плане градация 3/10 работает хорошо", в надежде или с уверенностью, что клиент не перепроверит элементарные вещи?
Если бы я так умел на легке кидаться своим словарным запасом - уже давно миллиардером стал бы (пока бы по голове за безграмотность не получил бы).
Только без обид, каждый зарабатывает как может.
Виктор Петров #:
"Проверяйте также лимит сканирования."
"В Search Console - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться."Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент.
В Search Console - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться.Это, понятно, условная градация, но работать с ней уже можно.Для кучи можно ещё с цифрами из логов поиграть по отдельным гуглоботам (для смартфонов, ПК, если интересно - для картинок и т.п.). Ну, и там же можно заценить, где бот пасётся охотнее. Интересные факты можно обнаружить.
Не совсем понятно. Давайте на конкретном живом примере. Должно быть в индексе миллион страниц. Среднее количество просканированых страниц за день 33282. По Вашей формуле (как Вы её вывели непонятно, эмпирически?) 1000000/ 33282 = 30,04627. И что ? Кричать караул и бегать кругами желания нет. Помоему это означает лишь то, что краулеру нужен месяц для того что-бы переобойти сайт (и то, с условием того, что он каждый раз будет заходить на разные страницы, обычно бывает по другому, на одни страницы он заходит чаще, на другие - реже).
Повторю вопрос - Каким образом Вы предлагаете проверить лимит сканирования? Ведь для того, что-бы его проверить, как минимум его нужно сначала узнать. Каким образом Вы предлагаете узнать лимит сканирования?