- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Sterh, перелинкатор кто ставил, кому понравился?
Какой перелинкатор?
неплохо было бы ещё сделать, чтобы уже на этапе работы (а не после завершения этого этапа) было видно, с какой страницей или какой ссылкой на сайте программа сейчас работает.
просто иногда прога в поисках страниц в такие дебри на сайте залезает, что аж жуть берёт, за голову хватаешься - и откуда они, черти, все взялись.. :)
вот если бы при "получении данных" было видно, где прога лазает сейчас, её можно было бы тормознуть и сайт почистить.... надеюсь, понятно объяснил.. спасибо.
Из рассылки "Продвижение сайта. Профессиональные советы экспертов" ("Ашманов и Партнеры")
и идет ссылка на http://romip.ru/russir2009/slides/yandex/lecture.pdf
Новая формула?
Глюк найден, сейчас исправляем.
Надеюсь, уже исправили? - Деньги перевел, жду свежую версию.
DocS добавил 05.12.2009 в 01:31
при скнировании на моменте, когда где-то около 2500 страниц и 24000 ссылок программа вылетает...
Потестил 2 сайта (43 и 82 страницы соответственно), не знаю, игнорирует ли программа поставленную галочку "Использовать robots.txt", но на первом сайте она насчитала более 3500 страниц и просто вылетела бесследно, на втором же сайте вообще 82 страницы всего (даже нет закрытых от индексации), так она опять прошла считать непонятно откуда взятые тысячи и, конечно, снова вылетев на подходе к третьей тысяче...
Как и раньше потерял где-то ключи от проограммы...
Это в предыдущих версиях были ключи или и сейчас тоже? - Тогда почему у меня ни ключей, ни даже намека на регистрацию?!
P.S.: Есть еще некоторые проблемы, например, с определением кодировок автоматом, о чем сообщил Вам, Sterh, в личку, равно как и привел описываемые адреса... жду ответов. Пока то, как работает у меня программа, работой назвать, увы, не могу, как бы ни хотелось.
Подскажите, как ведят себя прога с 301м редиректом? Хотелось бы, чтобы по 301му редиректу она засчитывала ссылку как фактически ту, на которую ведет редирект.
насчёт 301го незнаю, на 404й выдаёт "битая ссылка". страницу, на которую ведёт 404 редирект, не обрабатывает (имхо это правильно. иначе битых ссылок не будет видно).
Уважаемый автор программы!
некоторые небольшие ошибки:
1) если на странице вида http://www.somesite.ru/something/some/thing.html
есть ссылка вида <a href='/'>
то программа пытается по ней перейти на страницу http://www.somesite.ru/something/some/
а должна переходить на страницу http://www.somesite.ru
в результате
а) имеем в списке битых ссылок кучу шлака,
б) если программа и вес туда сливает, имеем неправильный расчёт веса.
2) если на странице есть ссылка вида <a href='/это ссылка такая.html'>, программа обрабатывает её до первого пробела. это неправильно, т.к. такие url тоже работают.
в результате
а) пишет в битые - ссылку "/это",
б) неправильно вес считает, если так..
Уважаемый автор программы ещё есть небольшие пожелания:
а) список страниц перенумерован, а список битых ссылок - нет, в результате непонятно, скока ваще битых ссылок программа нашла - 1000 или 100000.. (это нада знать если хочешь сравнить кол-во битых ссылок с кол-вом фактически найденных, т.е. определить, насколько их многа и надо ли их исправлять).
б) было бы очень замечательно если бы можно было ограничивать прогу по глубине обхода: если сайт очень большой, иногда имеет смысл отрезать листья и всякий мусор (иначе прога месяц такой сайт будет парсить)
в) было бы очень здорово и замечательно, если бы в программе можно было задавать свою формулу слива веса, как, например, в yazzle можно задавать свою формулу подсчёта стоимости ссылки. :) ну это так.. с жиру побеситься..
пасибо ждём
новой версии
Sterh, программа привязывается к компу? на линуксе пойдет?
неплохо было бы ещё сделать, чтобы уже на этапе работы (а не после завершения этого этапа) было видно, с какой страницей или какой ссылкой на сайте программа сейчас работает.
Будет.
Из рассылки "Продвижение сайта. Профессиональные советы экспертов" ("Ашманов и Партнеры")
и идет ссылка на http://romip.ru/russir2009/slides/yandex/lecture.pdf
Новая формула?
Там, если не ошибаюсь, не формула, а принцип работы нового алгоритма.
Потестил 2 сайта (43 и 82 страницы соответственно), не знаю, игнорирует ли программа поставленную галочку "Использовать robots.txt", но на первом сайте она насчитала более 3500 страниц и просто вылетела бесследно, на втором же сайте вообще 82 страницы всего (даже нет закрытых от индексации), так она опять прошла считать непонятно откуда взятые тысячи и, конечно, снова вылетев на подходе к третьей тысяче...
На Ваших сайтах программа на чем-то циклится. На чем именно пока не поймали. Проверьте валидность кода.
Это в предыдущих версиях были ключи или и сейчас тоже? - Тогда почему у меня ни ключей, ни даже намека на регистрацию?!
Это Вам не повезло так сильно 😒
Шучу :) Не стОит на основе одного поста панику разводить. Ключей нет и не было никогда.
P.S.: Есть еще некоторые проблемы, например, с определением кодировок автоматом, о чем сообщил Вам, Sterh, в личку, равно как и привел описываемые адреса... жду ответов. Пока то, как работает у меня программа, работой назвать, увы, не могу, как бы ни хотелось.
Если тэг
прописан без ошибок, то определяет все нормально. Если НЕ определяет, и лень с кодом возиться - выставляйте кодировку в ручном режиме.Подскажите, как ведят себя прога с 301м редиректом? Хотелось бы, чтобы по 301му редиректу она засчитывала ссылку как фактически ту, на которую ведет редирект.
Скиньте УРЛ в личку и странички с 301 редиректом. Я так понимаю, сайт переделали, а страницы подклеили?
1) если на странице вида http://www.somesite.ru/something/some/thing.html
есть ссылка вида <a href='/'>
то программа пытается по ней перейти на страницу http://www.somesite.ru/something/some/
а должна переходить на страницу http://www.somesite.ru
base href в коде присутствует? Если да, то проверьте синтаксис.
2) если на странице есть ссылка вида <a href='/это ссылка такая.html'>, программа обрабатывает её до первого пробела. это неправильно, т.к. такие url тоже работают.
То ли я отстал от жизни, то ли что-то не так понял. Пробелы в УРЛах? И они работают?
Уважаемый автор программы ещё есть небольшие пожелания:
а) список страниц перенумерован, а список битых ссылок - нет, в результате непонятно, скока ваще битых ссылок программа нашла - 1000 или 100000.. (это нада знать если хочешь сравнить кол-во битых ссылок с кол-вом фактически найденных, т.е. определить, насколько их многа и надо ли их исправлять).
Фига се! Редко встречаются сайты, где больше одной-двух битых ссылок. Но сделаем.
б) было бы очень замечательно если бы можно было ограничивать прогу по глубине обхода: если сайт очень большой, иногда имеет смысл отрезать листья и всякий мусор (иначе прога месяц такой сайт будет парсить)
Будет.
в) было бы очень здорово и замечательно, если бы в программе можно было задавать свою формулу слива веса, как, например, в yazzle можно задавать свою формулу подсчёта стоимости ссылки. :) ну это так.. с жиру побеситься..
пасибо ждём
новой версии
Не будет никогда, ибо баловство.
Sterh, программа привязывается к компу? на линуксе пойдет?
Программа к компу не привязывается. На линуксе врядли, т.к. требует НетФреймворк.
--------------------------------
Еще очень хочется сказать. В 99% сбоя программы виноват кривой код сайта. Обходить все "выкрутасы" вэб-мастеров нет ни желания, ни возможности.
Обычно, когда жалуются на то, что прога не работают, и присылают УРЛ сайта, я просто смотрю отдаваемый код и указываю вэб-мастеру на ошибку. Не всегда у меня есть возможность искать и исправлять чужие ошибки.
Единственный глюк, который сейчас исправляем - это тот, что заметил rootv. Все остальные пожелания будут учтены в новой версии.
Уважаемые коллеги! Оптимизация - это не только ссылки, это еще и грамотный код!
Недавно предавался удовольствию наблюдать за работой программой у товарища - обладателя оной. Запустил туда проект. Все посчитал. Только вот незадача. Почему-то многие внутренние ссылки посчитал за внешние....
smallkreker добавил 09.12.2009 в 19:43
Хотя вообще обязательно куплю на НГ себе подарок. )
Почему-то многие внутренние ссылки посчитал за внешние....
Опять же смотрите base href и его синтаксис.