Долгожданная Page Weight Desktop (2.0). Программа для перелинковки сайта.

E1
На сайте с 26.05.2010
Offline
69
#251
wlad2:
exp131,
ну а по поводу копировать когда нормально можно будет??

Добавили в список задач на следующее обновление.

Программа настройки перелинковки сайта: купить на сайте (http://www.page-weight.ru/).
N
На сайте с 01.11.2004
Offline
250
#252

У меня отсканировало 25 тыс страниц (хотя поставила использовать robots, где все ссылки с ? закрыты от индексации) и сдохло. Стоит уже полчаса, дальше обрабатывать не хочет. Что делать - хз

Sterh
На сайте с 15.06.2006
Offline
226
#253
Nina:
У меня отсканировало 25 тыс страниц (хотя поставила использовать robots, где все ссылки с ? закрыты от индексации) и сдохло. Стоит уже полчаса, дальше обрабатывать не хочет. Что делать - хз

Я так полагаю, что отсканировало не страницы, а ссылки на страницы, закрытые в роботс?

По поводу "сдохло". Что пишет? Что показывает? Скришот "сдохшего состояния" хотя бы можно?

Программа для настройки внутренней перелинковки сайта: купить (http://www.page-weight.ru/) Проверка внешних ссылок на сайт (https://backlink.page-weight.ru) (когда Ахрефс дорого) Возьму на продвижение пару магазинов, & SEO консультации (/ru/forum/987866) для сложных случаев.
E1
На сайте с 26.05.2010
Offline
69
#254

Дамы и господа.

Прошу при сообщении об ошибке - указывайте сайт и обстоятельства к этой ошибке приведшие. Если не хотите это светить тут пишите в личку, на почту. Это существенно ускорит нахождение и исправление. А то каждый раз приходится клещами вытаскивать подробности. А штатный телепат уволился.

N
На сайте с 01.11.2004
Offline
250
#255
Sterh:
Я так полагаю, что отсканировало не страницы, а ссылки на страницы, закрытые в роботс?

Страницы вида http://www.site.ru/page-3.html?month=12&year=2012 закрытые в роботсе

Sterh:

По поводу "сдохло". Что пишет? Что показывает? Скришот "сдохшего состояния" хотя бы можно?

http://floomby.ru/s1/RDs34 - это я попыталась проект остановить. Уже полчаса любуюсь.

S2
На сайте с 07.01.2008
Offline
611
#256

Nina, а как вы поставили запрет в роботсе? /*? Роботс локальный был?

И при скане вы выбрали тот юзерагент в котором этот запрет стоит?

Я б прогу закрыл, всё равно отсканено неправильно. У меня кстати с локальным роботсом нормально отсканировалось посл раз.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
N
На сайте с 01.11.2004
Offline
250
#257
Str256:
Nina, а как вы поставили запрет в роботсе? /*? Роботс локальный был?
И при скане вы выбрали тот юзерагент в котором этот запрет стоит?

User-agent: *

Disallow: */*?*

Disallow: /tags

- этот роботс прекрасно понимают все поисковики, но программа сканирует тем не менее

Юзерагент - pageweight. Локального роботса не было.

Sterh
На сайте с 15.06.2006
Offline
226
#258
Nina:
Страницы вида http://www.site.ru/page-3.html?month=12&year=2012 закрытые в роботсе

Я не это имею ввиду. Т.к. программа работу не закончила, то результаты не обработаны, и закрытые страницы Вы видите в списке очереди сканирования. Так?

Nina:

http://floomby.ru/s1/RDs34 - это я попыталась проект остановить. Уже полчаса любуюсь.

Закройте программу и запустите скан снова. Начнет сканировать с момента последнего сохранения данных.

---------- Добавлено 27.11.2012 в 16:28 ----------

Nina:
User-agent: *
Disallow: */*?*
Disallow: /tags
- этот роботс прекрасно понимают все поисковики, но программа сканирует тем не менее

Юзерагент - pageweight. Локального роботса не было.

ну и это.. Если у Вас юзер-агент в проге pageweight указан, а в роботсе дерективы для *, то естественно эти дерективы будут игнорироваться.

S2
На сайте с 07.01.2008
Offline
611
#259
Nina:
Юзерагент - pageweight.

Если вы в группе роботс использовали юзерагент pageweight - то программа будет искать правила конкретно для этого юзерагента, а если не найдёт будет сканировать всё подряд.

Sterh:
Закройте программу и запустите скан снова. Начнет сканировать с момента последнего сохранения данных.

Я вот так утром закрыл, не дождавшись остановки.Потому что сервер на профилактику ушёл. Сейчас открыл - пусто ни одной ссылки не просканировано оказалось, хотя было порядка 1200 проверенных.

N
На сайте с 01.11.2004
Offline
250
#260
Sterh:
ну и это.. Если у Вас юзер-агент в проге pageweight указан, а в роботсе дерективы для *, то естественно эти дерективы будут игнорироваться.

Спасибо, немного помогло, во всяком случае сканирование закончилось. Только я не пойму зачем мне программа показывает теперь в результатах сканирования ссылки, которые были закрыты для индексации - тэги, страницы с ?. Зачем мне нужен этот мусор?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий