Долгожданная Page Weight Desktop (2.0). Программа для перелинковки сайта.

Sterh
На сайте с 15.06.2006
Offline
226
#161
Str256:
Это можно также решить, расширением моделирования. ...

Опрос вверху не просто так прикручен :)

С моделированием можно много чего понавертеть полезного, но вот нужно это единицам. И есть некоторые сомнения в том, что все эти навороты отобьются.

В любом случае, сейчас еще с месяцок погоняем текущую версию, подчистим глюки, которые всплывут, и тогда уже будем решать на предмет дальнейших наворотов.

Программа для настройки внутренней перелинковки сайта: купить (http://www.page-weight.ru/) Проверка внешних ссылок на сайт (https://backlink.page-weight.ru) (когда Ахрефс дорого) Возьму на продвижение пару магазинов, & SEO консультации (/ru/forum/987866) для сложных случаев.
S2
На сайте с 07.01.2008
Offline
611
#162

А что насчёт отдельной колонки с указанием, уровня страницы? Эта информация и так уже получается при прогоне, так что только вывести колонку. Я вам не раз уже говорил об этом. Софта такого нету с этой функцией - так что сразу получите конкурентное преимущество и вещь полезная кстати.

Не используют - потому что оно особо не развито, у 1.8 были с этим кое-какие существенные недочёты, я летом писал в прошлой теме. В этой тоже не особо. Появятся удобные инструменты, будут пользоваться. Можете к примеру версию выпустить с поддержкой моделирования за 1200р. Если там всё будет удобно, многие думаю доплатят. Доработок не надо существенных. .

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
Sterh
На сайте с 15.06.2006
Offline
226
#163
Str256:
А что насчёт отдельной колонки с указанием, уровня страницы? Эта информация и так уже получается при прогоне, так что только вывести колонку. Я вам не раз уже говорил об этом. Софта такого нету с этой функцией - так что сразу получите конкурентное преимущество и вещь полезная кстати.

Я так же не раз выдвигал контраргументы :)

Str256:

Не используют - потому что оно особо не развито, у 1.8 были с этим кое-какие существенные недочёты, я летом писал в прошлой теме. В этой тоже не особо. Появятся удобные инструменты, будут пользоваться. Можете к примеру версию выпустить с поддержкой моделирования за 1200р. Если там всё будет удобно, многие думаю доплатят. Доработок не надо существенных. .

Я согласен, что моделирование крайне неудобно. Если честно, то моделирование как таковое возникло в первой версии как костыль. Сейчас, деревянный костыль заменили алюминевым :)

У меня довольно здоровое ТЗ на модуль моделирования лежит еще с прошлого года. Вопрос именно с востребованностью. Я хочу его сделать, и скорее всего будет версия PRO. Но тут вопрос окупаемости. PRO не будет стоить 1200 руб. Если делать действительно профессиональную, узконаправленную версию, то её стоимость будет порядка 100 у.е. и выше. Её уже не купят, "что бы было". А профессионалов в СЕО очень мало.

[Удален]
#164
Sterh:
то её стоимость будет порядка 100 у.е. и выше.

это нормально :)

насколько могу судить по результатам, данные где-то пропадают (страницы)

причём чем больше потоков включаешь тем больше пропадает.

сканирую один и тот же сайт с разными настройками от 10-30 потоков - результат разный (количество страниц) :(

P.S. хотелось бы что бы в настройках можно было указать что часть ссылок являются внутренними.

например сканирую сайт www.site1.ru и хочу указать что все ссылки на домен www.site.ru являются внутренними

www.site1.ru - копия www.site.ru на локальном сервере, а заменить все абсолютные ссылки на относительные очень проблематично :(

Sterh
На сайте с 15.06.2006
Offline
226
#165
burunduk:
это нормально :)

Да, это нормально. Вопрос в количестве людей, которые будут считать, что это нормально. А главное востребовано.

burunduk:

насколько могу судить по результатам, данные где-то пропадают (страницы)
причём чем больше потоков включаешь тем больше пропадает.

сканирую один и тот же сайт с разными настройками от 10-30 потоков - результат разный (количество страниц) :(

Это нормально. Если часть страниц вылетает на больших скоростях, то прога не может видеть ссылки, которые на них стоят. Соответственно не может выдрать сайт полностью.

burunduk:

P.S. хотелось бы что бы в настройках можно было указать что часть ссылок являются внутренними.
например сканирую сайт www.site1.ru и хочу указать что все ссылки на домен www.site.ru являются внутренними

www.site1.ru - копия www.site.ru на локальном сервере, а заменить все абсолютные ссылки на относительные очень проблематично :(

Ну вы, блин, даете (с) )) кому роботс локальный, кому ссылки с разных адресов поклеить :)

Нельзя решить все частные случаи. Но мы стараемся по максимуму реализовать более общие требования.

Пора голосовалку предложений прикручивать :)

S2
На сайте с 07.01.2008
Offline
611
#166
Sterh:
У меня довольно здоровое ТЗ на модуль моделирования лежит еще с прошлого года. Вопрос именно с востребованностью. Я хочу его сделать, и скорее всего будет версия PRO. Но тут вопрос окупаемости. PRO не будет стоить 1200 руб. Если делать действительно профессиональную, узконаправленную версию, то её стоимость будет порядка 100 у.е. и выше. Её уже не купят, "что бы было". А профессионалов в СЕО очень мало

Я очень удивился, когда узнал что 2.0 - будет около 1000р стоить. Сколько времени потратили на тестирование... могли бы и 100 баксов цену поставить. И реферальную программу сделать, по инвайтам. И защиту усилить, не знаю как тут, а у 1.8 она слабая.

burunduk:
насколько могу судить по результатам, данные где-то пропадают (страницы)
причём чем больше потоков включаешь тем больше пропадает.

сканирую один и тот же сайт с разными настройками от 10-30 потоков - результат разный (количество страниц)

В битых смотри ссылках. Я сравнивал с эталлонной 1.8 - которая в 1 поток сканит, на выходе всё одинаково, если в 2.0 все битые ссылки пересканировать по много раз - когда с 500х ошибками ноль останутся - значит скан закончен. Потому и писал про автодоскан, чтобы по много раз вручную не запускать. Это актуальнее чем, локальный роботс.

Sterh:
Я так же не раз выдвигал контраргументы

На которые я успешно возражал.

1. Конкурентное преимущество которого нету ни у одной программы.

2. Позволит тем кто покупает статьи путём периодич проскана сайта проверять не изменился ли её уровень вложения.

3. Очень глубокое вложение влияет также и на индексацию, могут и не добраться - так что это способ взять ситуацию под контроль.

[Удален]
#167
Str256:
В битых смотри ссылках.

нет их там :(

с досканированием всё понятно, наверно стоит после завершения сканирования проверять сколько всего известно уникальных url в ссылках и сколько страниц есть в базе

S2
На сайте с 07.01.2008
Offline
611
#168
burunduk:
нет их там :(
с досканированием всё понятно, наверно стоит после завершения сканирования проверять сколько всего известно уникальных url в ссылках и сколько страниц есть в базе

А ты пробовал скармливать проге xml карту сайта - есть потери страниц в этом случае или нету? И ещё ты не останавливал прогу во время скана? на первых бетках - это приводило к потерям страниц.

[Удален]
#169
Str256:
А ты пробовал скармливать проге xml карту сайта

если бы она была :)

нет не останавливал

S2
На сайте с 07.01.2008
Offline
611
#170
burunduk:
если бы она была :)
нет не останавливал

У меня кстати тоже есть потери страниц. Сейчас посмотрел, список урлов был 2509, а прога нашла 2385. А на другом тестовом сайте, нормально всё. Но это не критично особо, так что я особо не заморочился, сколько нашла столько нашла. А 1.8. на этом же сайте нашла 2365. Так что не очень уверен что это с потоками связано, 1.8. сканилась в 1 поток - задержка 2 сек. А 2.0 30 потоков задержка 500мс, правда потом ещё куча досканов битых ссылок было. Другой сайт, 1.8 = 2сек, 1 поток, нашла 2805 страниц, 2.0 2894 = 500мс, 30 потоков. Всего было 2892. Правда такая вещь - скажем в результатах написано 3 битые, нажимаю на эту строчку - открывается страница - где их штук 20.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий