Долгожданная Page Weight Desktop (2.0). Программа для перелинковки сайта.

vagogrande
На сайте с 25.02.2012
Offline
110
#421
burunduk:
vagogrande, я не специалист по серверам и их настройки, но чудес хватает, посмотрите загрузку, ошибки и т.п. возможно найдёте проблему :)

Должен быть лог у программы. Более того я писал уже про этот сайт неделю назад. Если выложить ответ, то возникает вопрос:

ЧТО КУРИТ ПРОГРАММИСТ? И где это купить, больно трава забористая.

Реально мой вывод: если у Вас сайт размером 50-100 страниц, то программа классная, если больше то деньги на ветер.

---------- Добавлено 22.01.2013 в 00:20 ----------

burunduk:
vagogrande, я не специалист по серверам и их настройки, но чудес хватает, посмотрите загрузку, ошибки и т.п. возможно найдёте проблему :)

Считай один сайт, винда, и эта программа. Машина i7 8 gb оперативки. Сам сайт 45000 страниц.

Гружу сайтемап. Сканирует 50-150 страниц нормально и перестает. Потом если дать : пересканировать битые ссылки, то находит 1000-1200 страниц, но опять битыми. Куда дела еще 43000 страниц?

Блеск в его глазах был заревом праздничного салюта, которым его тараканы отметили окончательную победу над разумом
[Удален]
#422
vagogrande:
Потом если дать : пересканировать битые ссылки, то находит 1000-1200 страниц, но опять битыми.

что-то мне подсказывает, что проблема не в программе

кстати, а xenu нормально сканирует?

S2
На сайте с 07.01.2008
Offline
611
#423

vagogrande, у меня ваш сайт сканируется нормально. За 10 минут 800 страниц прошла, но правда я всего 2 потока поставил. Если вы загружали урлы с хмл то может в этом и есть косяк. Уже бывали проблемы с подгрузкой урлов, я правда текстовые файлы использую и сейчас всё нормально, а хмл я давно уже не проверял. Плюс сам файл может быть кривым.

Зачем вам кстати на каждой странице 2-е ссылки на карту сайта?

burunduk:
Str256, вообще-то, это просчитывается

Интересно как? Можно в личку.

______________________________________________________________________________

ну и код у сайта... роботс конечно длинный, но явно не весь мусор закрыт...

Вот такое ещё не мешало бы добавить:

Disallow: /*.css?*

Вместо звёздочки там произвольные цифровые комбинации, и полно таких ссылок в коде, по десятку на странице. Такие, я бы тоже закрыл: /image.php? Плюс ливезиллу тоже. А вообще, там такие ссылочки с параметрами, что чёрт ногу сломит...

Во внутренних ссылках не стоит применять нофоллов, вес всё равно уходит.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
vagogrande
На сайте с 25.02.2012
Offline
110
#424
Str256:
vagogrande, у меня ваш сайт сканируется нормально. За 10 минут 800 страниц прошла, но правда я всего 2 потока поставил. Если вы загружали урлы с хмл то может в этом и есть косяк. Уже бывали проблемы с подгрузкой урлов, я правда текстовые файлы использую и сейчас всё нормально, а хмл я давно уже не проверял. Плюс сам файл может быть кривым.

Для того, чтобы с этим разобраться нужно отсканировать сайт

Занизил параметры ниже некуда. Итог 22 страницы !!!

http://img-fotki.yandex.ru/get/6430/126983920.1/0_958c6_5aef34da_XL.jpg

[Удален]
#425
Str256:
Интересно как? Можно в личку.

это долго, я столько не напишу :(

S2
На сайте с 07.01.2008
Offline
611
#426
vagogrande:
Занизил параметры ниже некуда. Итог 22 страницы !!!

Ну так, паузы нету между запросами вот и результат. Плюс юзер агент - браузер, а не ПС. А сервера настроены обычно так, чтобы больший приоритет по ресурсам пс отдавать, чтобы владельцы сайтов не жаловались...

burunduk:
это долго, я столько не напишу

Методичка же должна быть какая-то. К каким значения привязывать внешние ссылки в зависимости от их характеристик.

[Удален]
#427
Str256:
Методичка же должна быть какая-то.

несколько месяцев убитых с программистом - вот и вся методичка :(

Micher
На сайте с 26.06.2007
Offline
56
#428

Заинтересовала ваша программа - Page Weight Request Range. Программа оценки конкурентности поисковых запросов. По функциональности вроде как схожа с AmazingNicheFinder, но анализирует также сниппеты и неполные соответствия ключевой фразе, что интересно. Да еще и кол-во объявлений в Директе считает )

Хотелось бы узнать, учитываются ли склонения, перемена мест слов из запроса при поиске совпадений?

При проверке запроса в кавычках заметил, что программа ищет в тайтлах и в сниппетах запрос вместе с кавычками, т.к. показывает 0 в графе "Вхождение всех слов в тайтл". Посмотрел в ручную, полные соответствия есть.

Планируется ли возможность работы программы через прокси и/или яндекс xml ?

S2
На сайте с 07.01.2008
Offline
611
#429
burunduk:
несколько месяцев убитых с программистом - вот и вся методичка

Блин, хоть скажите с какой стороны к этому подступаться.

---------- Добавлено 22.01.2013 в 02:32 ----------

Micher, эта программа в отдельном топике обсуждается.

[Удален]
#430

Str256, сначала собирается ся, разбивается на группы по страницам, потом переделывается вся структура сайта: удаляются все меню, двойные ссылки все не текстовые ссылки и ссылки с ненужными анкорами, количество входящих ссылок на страницу рассчитывается исходя из важности запросов ведущих на страницу, простановка ссылок начинается с самой мощной страницы, в зависимости от размеров сайта их может быть и 5 и 40, блок рандомный по количеству ссылок (например, при блоке 20 ссылок реально в блоке будет от 16 до 24 ссылок).

количество ссылок с конкретными анкорами просчитывается заранее

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий