- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Если я не ошибаюсь с помощью key collector'a тоже можно провести анализ наиболее пиэристых страниц и после сделать линковку
Если я не ошибаюсь с помощью key collector'a тоже можно провести анализ наиболее пиэристых страниц и после сделать линковку
Нет не может. Она может найти релевантные страницы сайта указанному ключу.
А Page Weight может проанализировать сайт в сотню тысяч страниц, и указать для каждой страницы сколько с неё внутренних исходящих и сколько водящих. А затем расчитать веса страниц по этим данным.
Как уже сказали, у КК и PWD абсолютно разный функционал.
КК делает рекомендации с каких страниц можно ставить ссылки на продвигаемую страницу (точнее просто снимает выдачу ПС), PWD поможет не уронить сайт с помощью этих рекомендаций.
Перелинковка вещь сложная. Одна единственная ссылка меняет ссылочную структуру всего сайта.
PWD как раз и сделана для того, что бы отслеживать все эти изменения.
Доступно обновление 2.1.6
Исправлены баги при формировании xls файла из-за невалидных символов.
Теперь в отчеты и карту сайта не попадают закрытые страницы.
Добавлен экспорт закрытых ссылок на отдельный лист при экспорте в эксель.
Выложили обновление до 2.1.7
Теперь корректно обрабатываются кириллические домены в которых ссылки в кириллице шли вместе с пуникодом. Корректно обрабатывается тег: meta name="robots". Программа обрабатывает "валидные" написания тега noindex.
Сколько времени программа ждёт открытия страницы, прежде чем посчитает ссылку битой?
Сколько времени программа ждёт открытия страницы, прежде чем посчитает ссылку битой?
До 100 секунд, там же есть это в настройках.
Str256, спасибо. невнимательная я)
Чего-то так ещё и не сделали определение анкоров ссылок и их процентовку. Жаль((
Чего-то так ещё и не сделали определение анкоров ссылок и их процентовку. Жаль((
Мы хотим сначала довести сканирование до идеала.. ну или почти :) И судя по сокращению обращений в тех. поддержку, мы близки к цели :)