Page Weight Online. Сервис для парсинга и расчета весов страниц сайтов.

123
alekzey
На сайте с 19.09.2005
Offline
140
#11

Сделайте, пожалуйста, возможность УДАЛИТь результаты сканирования сайта.

Сейчас захотел добавить один из проблемных сайтов с учетом новой настройки - не дает, пишет - уже есть такой сайт.

WBR, AlekZey Абарис (http://abaris.ru) - продвижение сайтов в Новосибирске (http://www.siteseo.ru) Как узнать траст домена (http://abaris.ru/trust.html)
E1
На сайте с 26.05.2010
Offline
69
#12
alekzey:
Сделайте, пожалуйста, возможность УДАЛИТь результаты сканирования сайта.

Сейчас захотел добавить один из проблемных сайтов с учетом новой настройки - не дает, пишет - уже есть такой сайт.

Доабвили такую возможность.

Так же убрали ограничение по добавляемому сайту. Теперь вы можете добавить один сайт разными заданиями с разными настройками, и сравнить результаты.

Программа настройки перелинковки сайта: купить на сайте (http://www.page-weight.ru/).
sergey885
На сайте с 19.08.2002
Offline
248
#13

прикольный сервис. заставил задуматься и немного запутаться.

итак, запустил анализ одного домена.

вначале запустил без www

вижу, что http://domen.info имеет статус: Перемещено: http://www.domen.info/ - ок, это понятно, там 301 редирект средствами htaccess с без www на www. Вижу максимальный вес = 1.

Рядом внутренняя страница (на нее есть ссылки со всех страниц сайта), вес = 1, ок тоже могу понять.

потом запустил с www

та же внутренняя страница опять имеет вес = 1.

но http://www.domen.info/ имеет вес = 0.0406669512. вот это уже не понятно, ведь по идее если с http://domen.info идет редирект на http://www.domen.info, то вес должен передаваться... ?

или может у меня что напутано с натсройками редиректа? к слову сказать, я стараюсь чтобы сайт без www нигде не фигурировал и старался все настроить таким образом.

смотрю далее, в урлах есть адреса на js файлы, прописанные в head'e... это наверно не гуд?

ну, а вот эта цитата мне просто сломала мозг:

exp131:

Вес равный 1 значит что для этой страницы вес не был расчитан.

ведь поидее очень важно определить как распределяется вес по сайту, чтобы наиболее сильные страницы продвигали наиболее сложные в продвижении слова. Т.е. если в данном случае 1 значит, что вес не расчитан, то по идее мы не видим есть ли проблемы с передачей максимального веса на главную...?

или же в моем случае можно быть спокойным если главная имеет 0.0406669512 и это максимальный показатель по всем урлам?

интернет-маркетинг. стратегии развития веб-проектов.
Sterh
На сайте с 15.06.2006
Offline
226
#14

Та внутренняя страница с 1 была со статусом 200ОК (без ошибок)?

Дело в том, что 1 - это стартовый вес страницы. Поэтому, если страница в расчете не участвует, то просто выводится именно этот стартовый вес.

Вес по ссылкам из head. На данный момент их убрать несколько проблематично, т.к. нет обработчика текста страницы, но в целом на общую картину они не влияют. Т.к. ссылки идут сквозные, то убрав их из расчета, вес распределиться по сайту в тех же пропорциях, в которых он есть сейчас.

Программа для настройки внутренней перелинковки сайта: купить (http://www.page-weight.ru/) Проверка внешних ссылок на сайт (https://backlink.page-weight.ru) (когда Ахрефс дорого) Возьму на продвижение пару магазинов, & SEO консультации (/ru/forum/987866) для сложных случаев.
sergey885
На сайте с 19.08.2002
Offline
248
#15
Sterh:
Та внутренняя страница с 1 была со статусом 200ОК (без ошибок)?
Дело в том, что 1 - это стартовый вес страницы. Поэтому, если страница в расчете не участвует, то просто выводится именно этот стартовый вес.

да, статус - ок

serpt
На сайте с 12.06.2011
Offline
39
#16

Вопрос такого характера: имеем некую сумму всех весов страниц сайта, при добавлении нескольких внутренних ссылок сумма должна расти?

Sterh
На сайте с 15.06.2006
Offline
226
#17
sergey885:
да, статус - ок

Скиньте УРЛ сайта и проблемной страницы в личку, или в саппорт через форму на сайте (туда даже лучше), посмотрю.

serpt:
Вопрос такого характера: имеем некую сумму всех весов страниц сайта, при добавлении нескольких внутренних ссылок сумма должна расти?

При добавлении ссылок - нет. При добавлении страниц - да.

E1
На сайте с 26.05.2010
Offline
69
#18

Чтобы уменьшить ошибки сервера (по-большей части 503) для тех сайтах, где они возникают, при "слишком частых" запросах мы ввели поддержку опции "Crawl-delay" в файле robots.txt.

Формат такой:

Crawl-delay: delay

Где delay - время задержки между запросами для одного потока в секундах.

Например:

Crawl-delay: 20 установит задержку в 20 секунд.

Максимальное значение: 50 секунд.

N
На сайте с 09.06.2005
Offline
94
naf
#19

Сергей, возникли три вопроса:

1)Поддерживает ли online версия директивы robots.txt, и если да то как можно просканировать сайт пока запрещенный к индексации директивой

User-agent: *

Disallow: /

?

2)Сканируются ли ссылки в блоках выводящихся javasсript, и рассчитывается ли соответсвенно их вес?

3)Рассчитывается ли вес для ссылок в noidex и nofollow?

Sterh
На сайте с 15.06.2006
Offline
226
#20

1) Да, поддерживает. На данный момент ни как. В Lite версии можно использовать user-agent: pageweight и разрешить только ему. В Online такого пока нет.

2) Нет

3) Noindex идет как обычная ссылка (этот тэг парсер не обрабатывает вообще), nofollow игнорирует полностью. Т.е. если ссылка с этим атрибутом, то парсер считает, что её нет совсем.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий