Denechka

Рейтинг
59
Регистрация
29.10.2018
Legioner-24 #:

Представьте вложу душу и терпение и через два года не двигаться в топ. От предыдущих хозяев фильтр. Получиться куча денег на ветер.

Вам для каких целей? Для души или для топа? И какова цена вопроса?
Legioner-24 #:

Я не искала домен с историей, я просто искала любой домен и увидела красиво запоминающийся домен и он оказался с историей.

Вложите в него душу и терпение - победите любые фильтры.
Axa-Ru #:

Да скачки по доходам это вообще жесть. Сегодня по сравнению со вчерашним днём будет -50.

Сегодня ж воскресенье, неудивительно.
Delahoya #:
Не попробуешь - не узнаешь. Не купишь - пожалеешь. 

По-моему пожалеет в двух случаях:

  1. Если купит.
  2. Если не купит.
Вопрос к ТС. Зачем Вам именно с историей (Вам непонятной), а не новорег?
Виктор Петров #:
Хорошо, давайте уточним и обобщим.
Лимит сканирования (он же - краулинговый бюджет) - это несколько устаревший термин, обозначающий сейчас скорее объём вычислительных ресурсов, выделяемых нейросетью гугла для сканирования сайта в прямой связи с его техническим состоянием, ценностью для пользователей с точки зрения нейросети, цитируемостью и т.д. и т.п.
Точных цифр тут быть не может, вы можете лишь опираться на некие усредненные показатели, а в качестве необходимого инструмента прибегать к инсайтам. Всё, что у вас есть - это данные Google Search Console, Google Analytics и данные логов по визитам гуглоботов.
Из этого жиденького набора вы можете извлечь какие-то выводы и построить какие-то гипотезы, способные помочь улучшить сканирование сайта и перераспределить цели этих визитов. Вот у вас данные по визитам из панели вебмастера, вот данные из логов по целевым URL, среди которых могут доминировать папки шаблона, давно несуществующие URL (например, после переноса сайта пару лет назад), либо нецелевые URL, получающие статус важных в глазах гуглобота на основе пользовательских сигналов.
Всё остальное - вилами по воде. Для примера: по утверждениям Мюллера, гуглобот может ждать отклика сервера 2 минуты (при рекомендуемой норме - 0,2-0,5с). Будет ли он ждать столько в реале? - Другой вопрос. То же самое с редиректами. насколько я помню, 10 считается допустимой нормой. Однако на практике гуглобот вполне себе прекращает переходы где-нибудь на пятом переходе.
Вся градация реально укладывается в "хорошо обходит - плохо обходит". Разброс 3-10 позволяет работать с этой градацией чуть тоньше, не более того.
Знаете подход получше - поделитесь, с удовольствием почитаю.

Ну, вот видите, что то начинает выкристаллизовываться.

Сейчас Вы утверждаете, что лимит сканирования - это несколько устаревший термин с безрамерной величиной, хотя ещё в 9:30 утверждали (цитирую) - "Среднее количество просканированных страниц - это и есть условный лимит сканирования. ".

Для меня он разделяется на 2 базовые величины:

  1. Лимит по времени (ибо ни кто не любит долго ждать) и тут я довожу время отклика до <100ms для пиковой нагрузки. В полупиковой (рабочий режим) 40-50мс. Идеал для меня, над которым еще работаю - 20мс.
  2. Лимит по дисковому объёму. Ибо весь этот шлак хранится физически на дисках (даже с учётом эффективной упаковки, хешей, контрольных сумм и т.д. и т.п.). А диски, как известно не резиновые. По-этому я лично минимизирую верстку и всякий левый хлам в коде. Опять же идеал для меня 10кБ, пока топчусь на 15-25кБ.

По редиректам я с Вами согласен. Ни кто не любит, когда его гоняют туда-сюда по 10 раз, поэтому редиректы свожу к нулю (вообще не люблю этих фокусов).

Я думаю с этими двумя факторами (время и объём) и может работать напрямую веб-мастер, дабы сделать привлекательнее и удобнее свой сайт и для сканирования краулером и для просмотра с браузера пользователем).

Спасибо за внимание.

Виктор Петров #:
Вы хорошо понимаете, что такое лимит сканирования?

Хотелось бы услышать Вашу версию.

Опять же - без обид. Что бы разъяснить и себе и тем, кто нас будет читать, что вкладываем в смысл одного и того же термина.

Виктор Петров #:

Я практик на потоке. А в данном случае мне неясна суть ваших затруднений. Вот объём сайта. Вот среднее число страниц краулинга. Вот логи. Чего вам не хватает для решения задачи, и в чём суть этой задачи?

Хорошо. 

У меня затруднений особых нет.

Просто вы налегке даёте ТС совет (цитирую) - "Проверяйте также лимит сканирования."

Меня заинтересовало как Вы его определяете и я начал задавать наводящие вопросы, надеясь, что ответы будут интересны не только мне, но и другим читателям. Далее последовало: - "В Search Console  - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться."
Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент. "

Так вот - объём сайта (в страницах) делённый на среднее число страниц в день даст только количество дней, необходимых для сканирования данного сайта. Ничего более. Это же элементарная алгебра с соблюдением размерностей. Ни а каком вычислении лимита сканирования (сначала надо определиться что это и в какой размерности вычисляется) по Вашей формуле идти речь не может. Ни с поправочными коэффициентами ни без (кстати непонятно из каких соображений выбирается так называемый поправочный коэффициент и его величина).

Вы и своим клиентам так налегке втюхиваете речи с вкраплениями технических словосочетаний типа "поправочный коэффициент", "среднее число страниц краулинга", "надо отталкиваться от медианных данных", "в этом плане градация 3/10 работает хорошо", в надежде или с уверенностью, что клиент не перепроверит элементарные вещи?

Если бы я так умел на легке кидаться своим словарным запасом - уже давно миллиардером стал бы (пока бы по голове за безграмотность не получил бы).

Только без обид, каждый зарабатывает как может.

Виктор Петров #:

"Проверяйте также лимит сканирования."

"В Search Console  - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться."
Точных цифр никто не даст. Да их и нет, в этой сфере они все динамические, поэтому надо отталкиваться от медианных данных. И в этом плане градация 3/10 работает хорошо. Большой сайт? - Ну, используйте поправочный коэффициент.

Вы, наверное, гуманитарий по жизни, ведь так?
Виктор Петров #:

В Search Console  - среднее число просканированных за день. Берем число страниц, которые должны быть в индексе. Делим на среднее число сканированных за день. По итогам смотрим: если результат в 10 раз больше просканированных за день, то кричим караул и бегаем кругами. Меньше трёх - хороший результат, можно не париться.
Это, понятно, условная градация, но работать с ней уже можно.
Для кучи можно ещё с цифрами из логов поиграть по отдельным гуглоботам (для смартфонов, ПК, если интересно - для картинок и т.п.). Ну, и там же можно заценить, где бот пасётся охотнее. Интересные факты можно обнаружить.

Не совсем понятно. Давайте на конкретном живом примере. Должно быть в индексе миллион страниц. Среднее количество просканированых страниц за день 33282. По Вашей формуле (как Вы её вывели непонятно, эмпирически?) 1000000/ 33282 = 30,04627. И что ? Кричать караул и бегать кругами желания нет. Помоему это означает лишь то, что краулеру нужен месяц для того что-бы переобойти сайт (и то, с условием того, что он каждый раз будет заходить на разные страницы, обычно бывает по другому, на одни страницы он заходит чаще, на другие - реже).

Повторю вопрос - Каким образом Вы предлагаете проверить лимит сканирования? Ведь для того, что-бы его проверить, как минимум его нужно сначала узнать. Каким образом Вы предлагаете узнать лимит сканирования? сканирование

Виктор Петров #:
Проверяйте также лимит сканирования.
Каким образом Вы предлагаете его проверить?
Всего: 493