Долгожданная Page Weight Desktop (2.0). Программа для перелинковки сайта.

Sterh
На сайте с 15.06.2006
Offline
226
#941
Str256:
В принципе, основные внутренние ссылки - это сквозное внутренне меню или например каталог товаров. Если как-то в программе задать ссылки меню - как шаблон для каждой страницы сайта, или для маски урлов. То если программа не будет по ним идти, при посещении каждой страницы, то это сильно ускорит скан и снизит нагрузку. А вот при расчёте веса, уже эти ссылки подставятся для каждой страницы как фиксированные значения утечки/перетечки веса. Как моя идея?

Программа и так по ним не ходит. Точнее пройдя раз больше не повторяется.

В плане экономии места при скане, возможно. Но только при условии, что эту маску зададут вручную. И то, при заходе на каждую страницу нужно будет все равно все ссылки выкачивать, потом сверять с маской и сохранять только те, что в маске отсутствуют. При этом на каждую страницу еще ставить флаг этой самой маски.

А вот при расчете уже все равно нужно будет все ссылки восстанавливать. Так что то, что сэкономили при скане, займем в процессе подготовки расчета.

Т.е. фактически получается, что меняем шило на мыло, но при этом добавляем лишних операций.

Программа для настройки внутренней перелинковки сайта: купить (http://www.page-weight.ru/) Проверка внешних ссылок на сайт (https://backlink.page-weight.ru) (когда Ахрефс дорого) Возьму на продвижение пару магазинов, & SEO консультации (/ru/forum/987866) для сложных случаев.
[Удален]
#942
v1st:
где 1 млн. страниц

на 3+ лямах грохнулась, но это скорей всего из-за попытки во время сканирования посмотреть уже сохранённые результаты :)

S2
На сайте с 07.01.2008
Offline
611
#943

Рачёт занимает куда меньше времени чем скан, а комп когда ссылок становится много миллионов начинает ощутимо тормозить. Ведь бывает, что на одной странице сотни или тысячи внутренних - меню каталога к примеру. Поэтому если, в базу будет сохраняться многокрано меньше ссылок это +.

Понятно дело что вручную, проходишь по сайту, ищешь маски с одинаковыми параметрами - потом задаёшь, маску и список исходящих к ней.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
bigBuyer
На сайте с 12.09.2013
Offline
65
#944

Ребята добрый день!

Вчера приобрёл программу, установилась хорошо, всё ок.

Отсканировал свой сайт, посчитал веса.

Как теперь смоделировать появление новых внутренних ссылок на интересующие меня внутренние страницы, которым хочу передать вес?

До конца не удалось разобраться. Буду очень благодарен за ссылку в этой ветке, либо где-то ещё, где есть подробный "разбор полётов". Просьба основана на очень серьёзной нехватке времени, дома маленький ребёнок и ничего не успеваю

Спасибо большое.

Развиваю свой ИМ.
Sterh
На сайте с 15.06.2006
Offline
226
#945
bigBuyer:
Как теперь смоделировать появление новых внутренних ссылок на интересующие меня внутренние страницы, которым хочу передать вес?

Двойной клик по странице, где хотите добавить/удалить ссылку, и вверху появятся кнопки

[ATTACH]133613[/ATTACH]

jpg link.jpg
RC
На сайте с 08.01.2014
Offline
12
#946

Не знаю, может уже спрашивали. Программ игнорирует правила в robots аля

Disallow: *?start=*

Disallow: */shop-login?view=reset

и т.д.

Так и задумано или это я что-то недонастроил?

Sterh
На сайте с 15.06.2006
Offline
226
#947
RedCheb:
Не знаю, может уже спрашивали. Программ игнорирует правила в robots аля

Disallow: *?start=*
Disallow: */shop-login?view=reset

и т.д.

Так и задумано или это я что-то недонастроил?

Перепишите роботс:

Disallow: /*?start=*

Disallow: /*shop-login?view=reset

Можно сначала на локальном файле попробовать

S2
На сайте с 07.01.2008
Offline
611
#948
Sterh:
Перепишите роботс:
Disallow: /*shop-login?view=reset

Может лучше:

Disallow: /*/shop-login?view=reset

В зависимости от того что надо запретить

Вообще програма вроде понимает стандартные конструкции. Для проверки которых можно использовать яндекс или гугл вебмастер.

Единственно, насколько помню были проблемы с директивами Аллов, если их несколько штук, с запретами дисаллов после каждого. Но давно так уже не делал, так что проверить не где, может уже и исправлено.

RC
На сайте с 08.01.2014
Offline
12
#949
Sterh:
Перепишите роботс:

Disallow: /*?start=*
Disallow: /*shop-login?view=reset

Можно сначала на локальном файле попробовать
Str256:
Может лучше:
Disallow: /*/shop-login?view=reset
В зависимости от того что надо запретить

Спасибо, учту.

Str256:

Вообще програма вроде понимает стандартные конструкции. Для проверки которых можно использовать яндекс или гугл вебмастер.

Ну, сервис проверки robots Яндекса вполне себе такие конструкции понимает, Гугл в панели вебмастера тоже не ругается. Вроде как, ничего лишнего они не закрывают. Но все равно спасибо за ответ.

Grandemeister
На сайте с 25.02.2006
Offline
100
#950

Подскажите, почему основная масса страниц с сайта сканируется с ошибкой 503 Service Unavailable (примерно 90% от всех страниц сайта)?

Да, страницы, естественно, доступны и отдаются с 200 ОК

Upd.: еще и тайтлы всех страниц кракозябрами написаны, хотя при сканировании пишет что кодировка определена. Человеки, подскажите, пожалуйста, как это чудо-прогу готовить?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий