exp131

Рейтинг
69
Регистрация
26.05.2010
Str256:
Я не это спрашивал. Вот ещё раз:


Разъясните мне по юзер агентам, я что-то запутался. Изначально я просил ввести юзер агент Яндекс, чтобы прога сканировала то что отдаётся яндексу в случае клоакинга к примеру, для гугла аналогично. Без учёта что там указано в роботсе. Т.е. - стоит роботс не учитывать и юзерагент яндекс или гугл.. Если указать юзер-агент программы - то получишь то что получает обычный юзер. Но если указать User-Agent: * - то что в логах сервера отобразится?

Это тот User-Agent, который обрабатывать из robots.txt.

Сделаем скоро настраиваемый User-Agent программы.

pavel419:
Да, но я исправляю ошибки, ставлю пересканить битые, а оно не видит изменений.
При простом перескане уже нормально все., но это все время...

А можно URL сайта на support@page-weight.ru? А лучше еще приложите экспорт базы данных.

wlad2:
в лайт версии страницы закрытые в роботсе не отображались, зачем в этой версии они отображаются?
можете сделать кнопку которая скроет их? ну очень неудобно блин (

Тоже добавили в список доработок. Пока поставьте флажок "Считать закрытие ссылки внешними" - и они пропадут из общего списка.

Запущен форум тех. поддержки. Там можно найти ответы на наиболее типичные вопросы, сообщить о багах программы, внести предложение. Так же на форум переехал раздел сайта "Перелинковка F.A.Q.", где можно задать вопрос о перелинковке.

И еще одна приятная новость. Вторую лицензию теперь можно приобрести со скидкой 50%

Для этого при покупке, в поле скидочного купона нужно ввести лицензионный ключ уже приобретенной версии Desktop.

Доступно обновление программы до версии 2.0.2

В этом обновлении:

  • Поддержка работы через прокси
  • Экспорт карты сайта в формат HTML с разбивкой на страницы
  • Поддержка SiteMap Index для произвольного количества страниц
  • При отсутствии тайтла страницы (закрыт в роботс, ссылка битая) пишется не анкор ссылки, а сообщение о недоступности тайтла
  • По-умолчанию выбран User-Agent: *
  • Исправлены баги при массовом удалении/добавлении ссылок и страниц
  • Добавлена поддержка тега <base>
  • Исправлено поведение сканера при нахождении в ссылках &amp;
  • Исправлены недочеты при сканировании поддоменов

Обновление как обычно будет произведено автоматически при старте программы. Если этого не произойдет нажмите кнопку "Поиск обновлений".

Str256:
Ещё раз по картам. Я тут смотрю нет генерации HTML-карты как в 1.8, можно ли включить в ближайшем обновлении. А то из csv не очень удобно переделывать, и можно ли сделать авторазбивку по числу страниц, скажем указываю 500, если сайт состоит из 5000 страниц - то автоматом создаётся карта из 10 страниц. Идеально с постраничной навигацией внизу.

Сделаем.

Str256:
И чтобы перескан битых ссылок автоматом запускался, несколько раз по крайней мере - число раз указать. А то 1.8 всё сканирует с первого раза, а у 2.х часть неизменно в битые попадает - это из-за того что потоков наверно много стоит.

Да, именно из-за этого. Но с помощью уменьшения количества потоков и установки задержки можно добиться хороших результатов.

Str256:
И кто мне напомнит как ещё один сканер сделать. Всё перещупал не могу найти. последнее обновление. Мне надо чтобы результаты сканирования с текущим сканером остались, хочу в новый загрузить список страниц из xml и сверить результаты.

Мы отказались от идеи нескольких сканеров на проект, т.к. набор результатов все равно был один и тот же. Создайте новый проект.

---------- Добавлено 16.11.2012 в 09:35 ----------

wlad2:
старая Лайт нормально понимала User-agent: pageweight
эта не в какую не слушается.. к примеру http://wlad2.ru/robots.txt

Проверили у себя, ошибок не нашли. Пришлите пожалуйста на support@page-weight.ru примеры страниц, которые не правильно обработаны.

wlad2:
- почему в тайтлах страниц показываются анкоры которые на нее ссылаются? что за бред..

При сканировании странички сохраняются все исходящие ссылки со своим текстом. Если ссылка закрыта роботс или битая, то она не сканируется и соответственно ее тайтл мы не получаем.

vasa666:
А по моей проблеме есть какие то здвиги? в личку всё скидывал.

Да, все получили. Сорри что не ответил в личку. С вашим сайтом тоже разбираемся. Скорее всего фикс включим в этот апдейт.

Обновление с поддержкой прокси, обработкой <base> и исправлениями по поддоменам будет скорее всего завтра. Соберем все вместе.

jj1981ua:
Приветствую. Купил давненько лайт, но она мой сайтец на 8000 страниц не осилила. Почти недельку назад купил 2.0.
Из позитива:
1. сканит быстро
2. общее представление дает моментально - что подправить сразу ясно
Минусы:
1. экспорт не идет - невозможно сохранить в данном месте, выберите другое место - и никакое не подходит (может моя проблема, не знаю)

Для экспорта нужно открыть ту вкладку, которую нужно экспортировать.

jj1981ua:
2. при моделировании - удаление входящих ссылок на страницу (страница типа "режим работы", которая в шапке и на которую ссылается весь сайт) занимает кучу времени (8000 за 4 часа). Или можно как-то сразу?

А вот с этим можно по-подробнее? Лучше на support@page-weight.ru

jj1981ua:
В общем программой доволен.

Спасибо за отзыв.

diverniko:
Sterh, Купил софтинку pagewaight- но при входе пишет ошибка входа для начала зарегестрируйте.Немогу понять куда вводить регистрационный ключ

Еще раз приводу ссылку на описание типичных проблем и методов устранения http://www.page-weight.ru/soft/page-weight/pw-desktop/install/

Всего: 467