Новая, уникальная программа для перелинковки сайта и проверки площадок

S2
На сайте с 07.01.2008
Offline
611
#461
exp131:
Все вопросы, сообщения об ошибках и пожеланиях отправляйте как обычно на этот форум

Вот суммировал мои пожелания:


1. Периодическое сохранение результата, скажем каждые 1000 ссылок.
2. При перерасчёте весов, считать от начальных значений.
3. Выбор глубины парсинга по маске. Скажем только каталога статей с ручной простановкой ссылок на каталог.
Например /articles/* и указываю, что на папку /articles/ стоит 1 внешняя ссылка с весом 5.
4. Возможность добавлять несуществующие страницы, например, страницы в разделах, чтобы спрогнозировать вес который они получат заранее.
5. Чтобы можно было в трей её свернуть после запуска. Также нужна пауза и стоп.
6. Возможность пакетной проверке сайтов. Загрузить штук 20, запустить и свернуть в трей.
7. Неудобно, что удалять ссылки со страницы можно только по одной. Выделяю их шифтом - нажимаю удалить - удаляется только одна строчка. А страниц таких много. Надо сделать - сколько выделил - столько удалить можно.
8. Возможность удалять страницы.
9. Не запоминает настройки. Бывает нужно проверить тот же сайт, и каждый раз всё заново настраивать. Пусть профиль настроек для сайта тоже сохраняет в общей базе.
10. Когда добавляешь ссылки ведущие на страницу - неудобно, что по одной - например я хочу сослаться с всех .jpg почему нельзя
выделить группу и добавить. Приходится пролистывать и каждый урл по очереди добавлять.
11. Из списка на добавку у конкретной страницы, уже добавленные - должны исчезать из списка.
12. Не указывать, те страницы с которых ссылка уже есть в списке на добавку ссылок. Иначе путают, особо если страниц в списке много.
13. Ссылки ведущие со страницы - пусть анкоры показывает, а не титлы страниц куда ведут. Проще найти, если ссылки из текста идут. Или пусть отдельная колонка с анкорами будет.
Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
E1
На сайте с 26.05.2010
Offline
69
#462
1. Периодическое сохранение результата, скажем каждые 1000 ссылок.

Это будет во второй версии. Точнее там будет новая система хранения данных. Во-первых можно будет прервать сканирование не потеряв данные, а во-вторых даже если случится сбой и программа будет закрыта аварийно (даже если электричество отключат) данные не будут потеряны. Плюс будет возможность возобновить сканирование с места останова.


3. Выбор глубины парсинга по маске. Скажем только каталога статей с ручной простановкой ссылок на каталог.
Например /articles/* и указываю, что на папку /articles/ стоит 1 внешняя ссылка с весом 5.

Не совсем понял. Можете пояснить?

5. Чтобы можно было в трей её свернуть после запуска. Также нужна пауза и стоп.

См. пукнт 1.

6. Возможность пакетной проверке сайтов. Загрузить штук 20, запустить и свернуть в трей.

Тоже во второй версии, но не сразу.

7. Неудобно, что удалять ссылки со страницы можно только по одной. Выделяю их шифтом - нажимаю удалить - удаляется только одна строчка. А страниц таких много. Надо сделать - сколько выделил - столько удалить можно.
8. Возможность удалять страницы.

Это будет в обновлении к первой версии.

9. Не запоминает настройки. Бывает нужно проверить тот же сайт, и каждый раз всё заново настраивать. Пусть профиль настроек для сайта тоже сохраняет в общей базе.

Хм. Есть возможность сохранить настройки через пункт меню "Настройки" -> "Сохранить настройки". Чем Вас это не устраивает?

10. Когда добавляешь ссылки ведущие на страницу - неудобно, что по одной - например я хочу сослаться с всех .jpg почему нельзя
выделить группу и добавить. Приходится пролистывать и каждый урл по очереди добавлять.
11. Из списка на добавку у конкретной страницы, уже добавленные - должны исчезать из списка.
12. Не указывать, те страницы с которых ссылка уже есть в списке на добавку ссылок. Иначе путают, особо если страниц в списке много.

Постараюсь включить в обновление первой версии. Возможно в виде дополнительных настроек.


13. Ссылки ведущие со страницы - пусть анкоры показывает, а не титлы страниц куда ведут. Проще найти, если ссылки из текста идут. Или пусть отдельная колонка с анкорами будет.

Об этом тоже расскажите по-подробнее.

О том когда будет обновление точных сроков назвать не могу, но думаю в течение ближайших недель что-то из этого списка будет реализовано.

Все изменения буду публиковать на форуме.

Программа настройки перелинковки сайта: купить на сайте (http://www.page-weight.ru/).
S2
На сайте с 07.01.2008
Offline
611
#463
exp131:
См. пукнт 1.

В 1-м пункте, про сворачивание в трей ни слова не сказано.

exp131:
Не совсем понял. Можете пояснить?

Большой сайт, ну скажем 50 тыс страниц. У них есть скажем каталог статей site.ru/articles/. Владелец говорит, что на этот каталог стоят ссылки с таких-то страниц. Чтобы прикинуть какой вес теоретически получит моя добавленная статья без скачки всего сайта, которую прога всё равно не потянет. Можно сделать следующее:

- указать маску каталога, чтобы были просканированы только те страницы что в нём и исходящие с них

- посмотреть PR ссылающихся на каталог страниц и указать их вручную как внешние источники

- добавить новую страницу в каталог - затем задать расчёт веса.

И всё будет ясно. Если хочу разместить не статью, а постоянную ссылку на существующей странице, то тоже самое, кроме добавления новой страницы. Собственно вам судить насколько это актуально.

exp131:
Хм. Есть возможность сохранить настройки через пункт меню "Настройки" -> "Сохранить настройки". Чем Вас это не устраивает?

Проверяю сайт. Сохраняю настройки. Закрываю программу. Открываю снова. Загружаю настройки. Нажимаю "получить данные" - а там всё по умолчанию и урл сайта не подставился:(

exp131:
Об этом тоже расскажите по-подробнее.

Там сейчас 2 колонки: Страница | Ссылка

Вот пример, когда это бывает нужно:

[ATTACH]64465[/ATTACH]

Титлы у страниц одинаковые, поэтому непонятно куда конкретно ссылки ведут. Было бы удобнее, чтобы была ещё колонка - где анкор бы ссылки отображался.

jpg 1.jpg
E1
На сайте с 26.05.2010
Offline
69
#464
В 1-м пункте, про сворачивание в трей ни слова не сказано.

Каюсь не написал. Сворачивание в трей скорее всего будет во-второй версии, хотя если найдется время может быть сделаю и в первой.


Большой сайт, ну скажем 50 тыс страниц. У них есть скажем каталог статей site.ru/articles/. Владелец говорит, что на этот каталог стоят ссылки с таких-то страниц. Чтобы прикинуть какой вес теоретически получит моя добавленная статья без скачки всего сайта, которую прога всё равно не потянет. Можно сделать следующее:
- указать маску каталога, чтобы были просканированы только те страницы что в нём и исходящие с них

Хм, а если в статьях каталога будут ссылки на главную страницу сайта (возможно не прямо, а через какую-то промежуточную) то программа все равно дойдя до главной будет скачивать весь сайт.

- посмотреть PR ссылающихся на каталог страниц и указать их вручную как внешние источники
- добавить новую страницу в каталог - затем задать расчёт веса.
И всё будет ясно. Если хочу разместить не статью, а постоянную ссылку на существующей странице, то тоже самое, кроме добавления новой страницы. Собственно вам судить насколько это актуально.

Вообще-то задача в планах стоит несколько иная: а именно сделать ограничение по глубине сканирования, возможность указать стартовую точку и опционально запрет сканирования страниц уровнем выше чем стартовая. В этом плане задача добавить возможность вручную проставить ссылки и их вес не очень сложна.

Проверяю сайт. Сохраняю настройки. Закрываю программу. Открываю снова. Загружаю настройки. Нажимаю "получить данные" - а там всё по умолчанию и урл сайта не подставился

При сохранении настроек сохраняются только список стартовых страниц и исключений (все что есть в окне "Настройки" -> "Опции"). Соответственно при загрузке они же и загружаются. УРЛ сайта сохраняется вместе со всеми данными через "Файл" -> "Сохранить как...". При нажатии на кнопку "Получить данные" вы вводите УРЛ заново и он заменяет текущий.

Титлы у страниц одинаковые, поэтому непонятно куда конкретно ссылки ведут. Было бы удобнее, чтобы была ещё колонка - где анкор бы ссылки отображался.

Мне казалось что куда конкретно ведут ссылки ясно по полю "ссылка". Под анкором Вы имеете ввиду текст (или картинку) между тегами <a> и </a>?

S2
На сайте с 07.01.2008
Offline
611
#465
exp131:
При нажатии на кнопку "Получить данные" вы вводите УРЛ заново и он заменяет текущий.

О чём и речь. Пока не закрыл программу, она должна в поле оставлять ранее введённые данные. К примеру вот сейчас проверял сайт, по умолчанию стоит кодировка 1251, а у сайта оказалось утф-8. Соответственно чтобы прочитались титлы - пришлось перезапускать и снова урл вводить. А иногда уже всё указал, и тут вспоминаешь что в исключения надо джпеги внести, закрываешь ввод данных, в опциях вносишь исключения - открываешь ввод данных снова - а там уже всё сбросилось. Вот что я имею ввиду.

exp131:
Под анкором Вы имеете ввиду текст (или картинку) между тегами <a> и </a>?

Да.

exp131:
Мне казалось что куда конкретно ведут ссылки ясно по полю "ссылка".

На странице может быть больше чем одна ссылка, ведущая на эту страницу. Одна из меню, а другая из текста. С разными анкорами. А Титл исходящей страницы соответственно одинаковый. И непонятно какую ссылку ваша программа имеет ввиду.

E1
На сайте с 26.05.2010
Offline
69
#466
О чём и речь. Пока не закрыл программу, она должна в поле оставлять ранее введённые данные. К примеру вот сейчас проверял сайт, по умолчанию стоит кодировка 1251, а у сайта оказалось утф-8. Соответственно чтобы прочитались титлы - пришлось перезапускать и снова урл вводить. А иногда уже всё указал, и тут вспоминаешь что в исключения надо джпеги внести, закрываешь ввод данных, в опциях вносишь исключения - открываешь ввод данных снова - а там уже всё сбросилось. Вот что я имею ввиду.

Теперь все понятно. Это будет в следующем обновлении программы.


На странице может быть больше чем одна ссылка, ведущая на эту страницу. Одна из меню, а другая из текста. С разными анкорами. А Титл исходящей страницы соответственно одинаковый. И непонятно какую ссылку ваша программа имеет ввиду.

В данном случае совершенно неважно какую ссылку имеет ввиду программа. Т.к. дубли удалаются, а ссылки ведут в одно место и, соответственно, передают один вес, то какая разница какая ссылка для этого используется? (На самом деле всегда используется первая найденая ссылка, но с тем же успехом для этого может применяться любая).

R
На сайте с 08.11.2006
Offline
63
#467

exp131,

в посте #380 говорилось, что глюк исправляется...

Там была речь о том, что не фиксируются ссылки, ведущие с сайта, и, соответственно, не участвуют в расчете весов страниц...

Что серьзно искажает картину.

Было ли это уже исправлено?

А то в моей версии до сих пор та же ситуация.

S2
На сайте с 07.01.2008
Offline
611
#468
exp131:
В данном случае совершенно неважно какую ссылку имеет ввиду программа. Т.к. дубли удалаются, а ссылки ведут в одно место и, соответственно, передают один вес, то какая разница какая ссылка для этого используется? (На самом деле всегда используется первая найденая ссылка, но с тем же успехом для этого может применяться любая).

А как же это: http://devaka.ru/articles/two-links-experiment

E1
На сайте с 26.05.2010
Offline
69
#469
rootv:
в посте #380 говорилось, что глюк исправляется...
Там была речь о том, что не фиксируются ссылки, ведущие с сайта, и, соответственно, не участвуют в расчете весов страниц...
Что серьзно искажает картину.
Было ли это уже исправлено?
А то в моей версии до сих пор та же ситуация.

Это будет исправлено в ближайшем обновлении.

Программа реализует алгоритм, похожий на алгоритм гугла (из этой статьи). Поэтому используется только одна ссылка со страницы, причем не важно какой у нее анкор.

Soley
На сайте с 22.08.2007
Offline
123
#470

Подскажите пожалуйста, насколько данный сервис применим для крупный контентных сайтов (с количеством страниц >50 000)?

Сможет ли программа обрабатывать такое количество страниц?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий