- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Старую ветку закрыли из-за большого количества постов. Начинаем новую :)
Для тех кто еще не в курсе:
Программа Page Weight вышла в свет более трех лет назад. За это время было исправлено множество багов и глюков. Еще больше было добавлено разных функций и фич.
Программа обрела популярность, её рекомендуют на курсах, семинарах, да и просто так :) Ну и 1200 постов замечаний, предложений, критики и благодарностей тоже о чем то, да говорят :)
О самой программе:
Назначение программы: наглядное отображение распределения веса по сайту.
Принцип действия программы: вы задаете УРЛ анализируемого сайта. Программа скачивает страницы и все ссылки на сайте, далее по формуле (источник: статья Криса Райдингса в переводе и с замечаниями А. Садовского) идет расчет веса страниц.
В итоге вы получаете:
1) наглядную общую картину анализируемого сайта
2) четко видите, какие страницы имеют наибольший вес, а какие наименьший
3) видите какие ссылки стоят на сайте (как внутренние, так и внешние)
4) видите какие именно страницы ссылаются на продвигаемый документ (весьма полезно при раскрутке внутренних страниц)
Коротко о функционале программы:
1) Скачивание, сохранение и загрузка проекта (Внимание! Проект сохраняется только после полной выкачки сайта)
2) Поиск интересующей вас страницы по УРЛу или тайтлу (в том числе и по частичному совпадению)
3) Сортировка страниц по весу, УРЛам или заголовкам
4) Возможность задать любое кол-во итераций
5) Возможность гибкой настройки программы, сохранение и загрузка настроек.
6) Вывод всех внешних ссылкой сайта
7) Вывод "битых ссылок"
8) Ну и аккуратный интерфейс и подробный help
Моделирование:
Используя модуль моделирования вы можете ставить и удалять ссылки, не внося изменения на сайт. Таким образом у вас есть возможность смоделировать и просчитать ситуацию до того, как наломаете дров на сайте :)
Побочная полезность:
Программа может значительно сэкономить бюджет на покупки статей и "вечных" ссылок. Огромное количество доноров линкуют свои сайты так, что вес, передаваемый по ссылке из статьи, ничтожно мал по сравнению с весом главной страницы. И получается, что деньги вы платите за пузомерки на морде, а эффект получаете как от копеечной нулевки. Так что прежде чем отдавать свои кровные - проверьте площадку на предмет наследования веса :)
Стоимость программы 600 руб.
Для покупки программы перейдите на сайт: http://www.page-weight.ru/buy/.
Процесс покупки автоматизирован. Оплата идет через Робокассу, и оплатить можно любой удобной валютой.
После оплаты вам на почту придет письмо с рег. номером программы.
Если вы покупали программу раньше, но она "куда-то затерялась", то пройдите по ссылке http://www.page-weight.ru/register/ и введите почтовый адрес, на который покупалась программа. Вам так же придет письмо с рег. номером и ссылкой на скачивание последней версии.
Несовсем понятен алгоритм. ситуация следующая: сайт с очень понятной структурой, главная и 15 страничек 2ой вложенности все в одном клике от главной.т.е. грубо говоря должен показываться одинаковый вес, почему получатся так:
/akvaparki-v-finlyandii 16 16 11,62681657
/helsinki 16 17 11,6694196
т.е. на второй странице больше исходящих ссылок, но на ней больше веса?
p.s. 17дцатая исходящая ссылка на странице /helsinki это ссылка на картинку
Апдейт.
Выпущена версия 1.8.1
Наконец-то доделан обработчик robots.txt. Программа теперь "понимает" и нормально обрабатывает файлы robots.txt (v.1 - только инструкции Disallow). Однако поддеживаются шаблоны:
Несовсем понятен алгоритм. ситуация следующая: сайт с очень понятной структурой, главная и 15 страничек 2ой вложенности все в одном клике от главной.т.е. грубо говоря должен показываться одинаковый вес, почему получатся так:
/akvaparki-v-finlyandii 16 16 11,62681657
/helsinki 16 17 11,6694196
т.е. на второй странице больше исходящих ссылок, но на ней больше веса?
p.s. 17дцатая исходящая ссылка на странице /helsinki это ссылка на картинку
Раз ссылка есть - значит будет считаться. Или закройте картинки в настройках в исключениях.
А непонятки - как раз из-за "лишних" ссылок. А вообще вес страницы зависит от количества и качества входящих ссылок, а не исходящих. Т.е. с самой "весомой" страницы может и 100 ссылок уходить.
Сутки работы. И происходит самая обидная печалька из всевозможных печалек.
я считаю жестким недостатком в программе, что все это не пишется автоматом в файл или бд - вся работа (не час и не два, а сутки) уходит в никуда :(
Также не понятно, почему до сих пор не реализована функция остановки парсинга и просчета имеющихся результатов
Сутки работы. И происходит самая обидная печалька из всевозможных печалек.
я считаю жестким недостатком в программе, что все это не пишется автоматом в файл или бд - вся работа (не час и не два, а сутки) уходит в никуда :(
Также не понятно, почему до сих пор не реализована функция остановки парсинга и просчета имеющихся результатов
Функция остановки не реализована как раз потому, что не пишется в БД или файл - все в памяти.
Сейчас готов парсер для второй версии, где это все уже реализовано. Т.е. старт, стоп, парсинг отдельного раздела и прочее... И в новом варианте уже все пишется в БД.
Ожидаемый выход парсера в купе с маленьким модулем тех. анализа в 20-х числах декабря.... сего года :) Собственно будет чут-чуть закрытое бета-тестирование (парсер с модулем будет доступен только покупателям текущей версии). Ну а модуль перелинковки уже в январе выпустим...
Ожидаемый выход парсера в купе с маленьким модулем тех. анализа в 20-х числах декабря.... сего года :) Собственно будет чут-чуть закрытое бета-тестирование (парсер с модулем будет доступен только покупателям текущей версии). Ну а модуль перелинковки уже в январе выпустим...
хотел купить, но подожду уже новую версию
хотел купить, но подожду уже новую версию
Хех.. в этой ветке еще не писал...
Всем покупателем текущей версии будет предоставлена скидка в размере её стоимости (600 руб.) при покупке новой. Т.е. с выходом новой версии нужно будет только доплатить разницу.
Извините если уже было, но как программа обрабатывает ссылки с "nofollow" ? Учитывается ли то, что по ссылке с нофолоу часть веса с донора уходит, но не передается странице-акцептору и, соответственно, остальные акцепторы получают меньше веса?
И если этот момент не учитывается, то планируется ли ?
Извините если уже было, но как программа обрабатывает ссылки с "nofollow" ?
А как хотите :) можно учитывать, можно игнорировать - все в настройках можно указать.
Вообще в программе очень гибкие настройки... почти на все случаи :)
[ATTACH]100129[/ATTACH]
Не совсем понятно.
Разъясните пожалуйста, как программа расчитывает вес в этих двух случаях:
1. Флаг "Игнорировать nofollow выключен.
2. Флаг "Игнорировать nofollow включен.
Я так понял что во втором случае ссылка с nofollow обрабатывается как обычная ссылка (без атрибута) . Правильно?
А вот как программа обрабатывает ссылку с nofollow в первом случае?
1) Считает, что этой ссылки не существует, и соответственно вес по ней не уходит и не передается.
2) Считает, что вес по этой ссылке уходит, но акцептор его не получает.