- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Ну, поставьте меня в угол, за невнимательность :)
Во-первых она конечно ОЧЕНЬ медленно работает.
Во-вторых первый же запуск закончился вылетом через 20 минут ;) Второй - доработал.
В-третьих кнопка про robots ничего не делает?
Disallow: /cat/
Disallow: /tag/
а она качает только в путь.
такие урлы
http://www.мой-сайт.ru/images/arki/thumb/arka%2087.jpg
программа видит как
http://www.мой-сайт.ru/images/arki/thumb/arka
и соответсвенно заносит в список битых. что мешает найти в этом списке действительно битые ссылки
aryanatha добавил 02-12-2011 в 04:53
программа учитывает страницы типа
/foto.html?gal=103
хотя в роботс.тхт прописано
Disallow: /foto.html?gal=
2 ruizAv, aryanatha
Какая версия программы? Если 1.8.1. - то урлы в личку плиз. Если ниже, то обновитесь и попробуйте еще раз. В 1.8.1. учет robots.txt нормально должен работать.
1.8.1, ссылку кинул
1.8.1, ссылку кинул
Ага, посмотрим сегодня
Друзья, а вот что делать дальше?
Прошелся программой по сайту и вижу, что веса совсем не там где хотелось бы. Перераспределять вес? А как? Когда работал нофолоу было все на своих местах.
Кто чем пользуется?
Да и вопрос ближе к теме:
Как программа обрабатывает ссылки закрытые в роботс или добавленные через исключения? Учитывает их при распределении веса по остальным страницам или считает что ссылок на эти страницы не существует?
Да и вопрос ближе к теме:
Как программа обрабатывает ссылки закрытые в роботс или добавленные через исключения? Учитывает их при распределении веса по остальным страницам или считает что ссылок на эти страницы не существует?
Там есть галочка - считать закрытые ссылки как внешние. Если отмечаете - то считает, если нет - игнорирует совсем.
Ну а по первому вопросу на форуме очень много написано. Если коротко, то для закрытия используйте яву или XML
Приобрел сегодня же софтину... Был разочарован. Не дошло даже до того, чтобы оценить результат работы. (Поставил сканировать сайт.. вернулся через 1,5 часа - программы просто нет, ни в зоне видимости, ни в процессах О_о). Повторил парсинг снова - тот же результат - парсило, парсило и просто пропала. Ни ошибки, ничего вообще. +Работает долго. :(
Win7 x84
PageWeight v1.8.1
Надо бы решить этот вопрос. Также интересует, есть ли у вас moneyback ? Не радует и отсутсвие демо-версии. Никого не хочу зацепить, но здоровая критика - это всегда хорошо, ато, получается, берешь кота в мешке (
Автор программы :) У меня есть вопросы.
01) Для чего мне может понадобиться эта программа, если я занимаюсь продвижением НЧ запросов?
02) Движок ДЛЕ, перелинковка средствами самой ДЛЕ сделана, т.е. в конце статьи еще 3 статьи похожих. С добавлением очередных статей эти 3 статьи могут поменяться на другие более релевантные.
Я правильно понимаю, что программа поможет вычислить веса каждой страницы и уже потом нужно будет делать перелинковку. Такая как сейчас не особо подходит, верно?