- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все вопросы, сообщения об ошибках и пожеланиях отправляйте как обычно на этот форум
Вот суммировал мои пожелания:
1. Периодическое сохранение результата, скажем каждые 1000 ссылок.
2. При перерасчёте весов, считать от начальных значений.
3. Выбор глубины парсинга по маске. Скажем только каталога статей с ручной простановкой ссылок на каталог.
Например /articles/* и указываю, что на папку /articles/ стоит 1 внешняя ссылка с весом 5.
4. Возможность добавлять несуществующие страницы, например, страницы в разделах, чтобы спрогнозировать вес который они получат заранее.
5. Чтобы можно было в трей её свернуть после запуска. Также нужна пауза и стоп.
6. Возможность пакетной проверке сайтов. Загрузить штук 20, запустить и свернуть в трей.
7. Неудобно, что удалять ссылки со страницы можно только по одной. Выделяю их шифтом - нажимаю удалить - удаляется только одна строчка. А страниц таких много. Надо сделать - сколько выделил - столько удалить можно.
8. Возможность удалять страницы.
9. Не запоминает настройки. Бывает нужно проверить тот же сайт, и каждый раз всё заново настраивать. Пусть профиль настроек для сайта тоже сохраняет в общей базе.
10. Когда добавляешь ссылки ведущие на страницу - неудобно, что по одной - например я хочу сослаться с всех .jpg почему нельзя
выделить группу и добавить. Приходится пролистывать и каждый урл по очереди добавлять.
11. Из списка на добавку у конкретной страницы, уже добавленные - должны исчезать из списка.
12. Не указывать, те страницы с которых ссылка уже есть в списке на добавку ссылок. Иначе путают, особо если страниц в списке много.
13. Ссылки ведущие со страницы - пусть анкоры показывает, а не титлы страниц куда ведут. Проще найти, если ссылки из текста идут. Или пусть отдельная колонка с анкорами будет.
Это будет во второй версии. Точнее там будет новая система хранения данных. Во-первых можно будет прервать сканирование не потеряв данные, а во-вторых даже если случится сбой и программа будет закрыта аварийно (даже если электричество отключат) данные не будут потеряны. Плюс будет возможность возобновить сканирование с места останова.
3. Выбор глубины парсинга по маске. Скажем только каталога статей с ручной простановкой ссылок на каталог.
Например /articles/* и указываю, что на папку /articles/ стоит 1 внешняя ссылка с весом 5.
Не совсем понял. Можете пояснить?
См. пукнт 1.
Тоже во второй версии, но не сразу.
8. Возможность удалять страницы.
Это будет в обновлении к первой версии.
Хм. Есть возможность сохранить настройки через пункт меню "Настройки" -> "Сохранить настройки". Чем Вас это не устраивает?
выделить группу и добавить. Приходится пролистывать и каждый урл по очереди добавлять.
11. Из списка на добавку у конкретной страницы, уже добавленные - должны исчезать из списка.
12. Не указывать, те страницы с которых ссылка уже есть в списке на добавку ссылок. Иначе путают, особо если страниц в списке много.
Постараюсь включить в обновление первой версии. Возможно в виде дополнительных настроек.
13. Ссылки ведущие со страницы - пусть анкоры показывает, а не титлы страниц куда ведут. Проще найти, если ссылки из текста идут. Или пусть отдельная колонка с анкорами будет.
Об этом тоже расскажите по-подробнее.
О том когда будет обновление точных сроков назвать не могу, но думаю в течение ближайших недель что-то из этого списка будет реализовано.
Все изменения буду публиковать на форуме.
См. пукнт 1.
В 1-м пункте, про сворачивание в трей ни слова не сказано.
Не совсем понял. Можете пояснить?
Большой сайт, ну скажем 50 тыс страниц. У них есть скажем каталог статей site.ru/articles/. Владелец говорит, что на этот каталог стоят ссылки с таких-то страниц. Чтобы прикинуть какой вес теоретически получит моя добавленная статья без скачки всего сайта, которую прога всё равно не потянет. Можно сделать следующее:
- указать маску каталога, чтобы были просканированы только те страницы что в нём и исходящие с них
- посмотреть PR ссылающихся на каталог страниц и указать их вручную как внешние источники
- добавить новую страницу в каталог - затем задать расчёт веса.
И всё будет ясно. Если хочу разместить не статью, а постоянную ссылку на существующей странице, то тоже самое, кроме добавления новой страницы. Собственно вам судить насколько это актуально.
Хм. Есть возможность сохранить настройки через пункт меню "Настройки" -> "Сохранить настройки". Чем Вас это не устраивает?
Проверяю сайт. Сохраняю настройки. Закрываю программу. Открываю снова. Загружаю настройки. Нажимаю "получить данные" - а там всё по умолчанию и урл сайта не подставился:(
Об этом тоже расскажите по-подробнее.
Там сейчас 2 колонки: Страница | Ссылка
Вот пример, когда это бывает нужно:
[ATTACH]64465[/ATTACH]
Титлы у страниц одинаковые, поэтому непонятно куда конкретно ссылки ведут. Было бы удобнее, чтобы была ещё колонка - где анкор бы ссылки отображался.
Каюсь не написал. Сворачивание в трей скорее всего будет во-второй версии, хотя если найдется время может быть сделаю и в первой.
Большой сайт, ну скажем 50 тыс страниц. У них есть скажем каталог статей site.ru/articles/. Владелец говорит, что на этот каталог стоят ссылки с таких-то страниц. Чтобы прикинуть какой вес теоретически получит моя добавленная статья без скачки всего сайта, которую прога всё равно не потянет. Можно сделать следующее:
- указать маску каталога, чтобы были просканированы только те страницы что в нём и исходящие с них
Хм, а если в статьях каталога будут ссылки на главную страницу сайта (возможно не прямо, а через какую-то промежуточную) то программа все равно дойдя до главной будет скачивать весь сайт.
- добавить новую страницу в каталог - затем задать расчёт веса.
И всё будет ясно. Если хочу разместить не статью, а постоянную ссылку на существующей странице, то тоже самое, кроме добавления новой страницы. Собственно вам судить насколько это актуально.
Вообще-то задача в планах стоит несколько иная: а именно сделать ограничение по глубине сканирования, возможность указать стартовую точку и опционально запрет сканирования страниц уровнем выше чем стартовая. В этом плане задача добавить возможность вручную проставить ссылки и их вес не очень сложна.
При сохранении настроек сохраняются только список стартовых страниц и исключений (все что есть в окне "Настройки" -> "Опции"). Соответственно при загрузке они же и загружаются. УРЛ сайта сохраняется вместе со всеми данными через "Файл" -> "Сохранить как...". При нажатии на кнопку "Получить данные" вы вводите УРЛ заново и он заменяет текущий.
Мне казалось что куда конкретно ведут ссылки ясно по полю "ссылка". Под анкором Вы имеете ввиду текст (или картинку) между тегами <a> и </a>?
При нажатии на кнопку "Получить данные" вы вводите УРЛ заново и он заменяет текущий.
О чём и речь. Пока не закрыл программу, она должна в поле оставлять ранее введённые данные. К примеру вот сейчас проверял сайт, по умолчанию стоит кодировка 1251, а у сайта оказалось утф-8. Соответственно чтобы прочитались титлы - пришлось перезапускать и снова урл вводить. А иногда уже всё указал, и тут вспоминаешь что в исключения надо джпеги внести, закрываешь ввод данных, в опциях вносишь исключения - открываешь ввод данных снова - а там уже всё сбросилось. Вот что я имею ввиду.
Под анкором Вы имеете ввиду текст (или картинку) между тегами <a> и </a>?
Да.
Мне казалось что куда конкретно ведут ссылки ясно по полю "ссылка".
На странице может быть больше чем одна ссылка, ведущая на эту страницу. Одна из меню, а другая из текста. С разными анкорами. А Титл исходящей страницы соответственно одинаковый. И непонятно какую ссылку ваша программа имеет ввиду.
Теперь все понятно. Это будет в следующем обновлении программы.
На странице может быть больше чем одна ссылка, ведущая на эту страницу. Одна из меню, а другая из текста. С разными анкорами. А Титл исходящей страницы соответственно одинаковый. И непонятно какую ссылку ваша программа имеет ввиду.
В данном случае совершенно неважно какую ссылку имеет ввиду программа. Т.к. дубли удалаются, а ссылки ведут в одно место и, соответственно, передают один вес, то какая разница какая ссылка для этого используется? (На самом деле всегда используется первая найденая ссылка, но с тем же успехом для этого может применяться любая).
exp131,
в посте #380 говорилось, что глюк исправляется...
Там была речь о том, что не фиксируются ссылки, ведущие с сайта, и, соответственно, не участвуют в расчете весов страниц...
Что серьзно искажает картину.
Было ли это уже исправлено?
А то в моей версии до сих пор та же ситуация.
В данном случае совершенно неважно какую ссылку имеет ввиду программа. Т.к. дубли удалаются, а ссылки ведут в одно место и, соответственно, передают один вес, то какая разница какая ссылка для этого используется? (На самом деле всегда используется первая найденая ссылка, но с тем же успехом для этого может применяться любая).
А как же это: http://devaka.ru/articles/two-links-experiment
в посте #380 говорилось, что глюк исправляется...
Там была речь о том, что не фиксируются ссылки, ведущие с сайта, и, соответственно, не участвуют в расчете весов страниц...
Что серьзно искажает картину.
Было ли это уже исправлено?
А то в моей версии до сих пор та же ситуация.
Это будет исправлено в ближайшем обновлении.
А как же это: http://devaka.ru/articles/two-links-experiment
Программа реализует алгоритм, похожий на алгоритм гугла (из этой статьи). Поэтому используется только одна ссылка со страницы, причем не важно какой у нее анкор.
Подскажите пожалуйста, насколько данный сервис применим для крупный контентных сайтов (с количеством страниц >50 000)?
Сможет ли программа обрабатывать такое количество страниц?