- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сделайте, пожалуйста, возможность УДАЛИТь результаты сканирования сайта.
Сейчас захотел добавить один из проблемных сайтов с учетом новой настройки - не дает, пишет - уже есть такой сайт.
Сделайте, пожалуйста, возможность УДАЛИТь результаты сканирования сайта.
Сейчас захотел добавить один из проблемных сайтов с учетом новой настройки - не дает, пишет - уже есть такой сайт.
Доабвили такую возможность.
Так же убрали ограничение по добавляемому сайту. Теперь вы можете добавить один сайт разными заданиями с разными настройками, и сравнить результаты.
прикольный сервис. заставил задуматься и немного запутаться.
итак, запустил анализ одного домена.
вначале запустил без www
вижу, что http://domen.info имеет статус: Перемещено: http://www.domen.info/ - ок, это понятно, там 301 редирект средствами htaccess с без www на www. Вижу максимальный вес = 1.
Рядом внутренняя страница (на нее есть ссылки со всех страниц сайта), вес = 1, ок тоже могу понять.
потом запустил с www
та же внутренняя страница опять имеет вес = 1.
но http://www.domen.info/ имеет вес = 0.0406669512. вот это уже не понятно, ведь по идее если с http://domen.info идет редирект на http://www.domen.info, то вес должен передаваться... ?
или может у меня что напутано с натсройками редиректа? к слову сказать, я стараюсь чтобы сайт без www нигде не фигурировал и старался все настроить таким образом.
смотрю далее, в урлах есть адреса на js файлы, прописанные в head'e... это наверно не гуд?
ну, а вот эта цитата мне просто сломала мозг:
Вес равный 1 значит что для этой страницы вес не был расчитан.
ведь поидее очень важно определить как распределяется вес по сайту, чтобы наиболее сильные страницы продвигали наиболее сложные в продвижении слова. Т.е. если в данном случае 1 значит, что вес не расчитан, то по идее мы не видим есть ли проблемы с передачей максимального веса на главную...?
или же в моем случае можно быть спокойным если главная имеет 0.0406669512 и это максимальный показатель по всем урлам?
Та внутренняя страница с 1 была со статусом 200ОК (без ошибок)?
Дело в том, что 1 - это стартовый вес страницы. Поэтому, если страница в расчете не участвует, то просто выводится именно этот стартовый вес.
Вес по ссылкам из head. На данный момент их убрать несколько проблематично, т.к. нет обработчика текста страницы, но в целом на общую картину они не влияют. Т.к. ссылки идут сквозные, то убрав их из расчета, вес распределиться по сайту в тех же пропорциях, в которых он есть сейчас.
Та внутренняя страница с 1 была со статусом 200ОК (без ошибок)?
Дело в том, что 1 - это стартовый вес страницы. Поэтому, если страница в расчете не участвует, то просто выводится именно этот стартовый вес.
да, статус - ок
Вопрос такого характера: имеем некую сумму всех весов страниц сайта, при добавлении нескольких внутренних ссылок сумма должна расти?
да, статус - ок
Скиньте УРЛ сайта и проблемной страницы в личку, или в саппорт через форму на сайте (туда даже лучше), посмотрю.
Вопрос такого характера: имеем некую сумму всех весов страниц сайта, при добавлении нескольких внутренних ссылок сумма должна расти?
При добавлении ссылок - нет. При добавлении страниц - да.
Чтобы уменьшить ошибки сервера (по-большей части 503) для тех сайтах, где они возникают, при "слишком частых" запросах мы ввели поддержку опции "Crawl-delay" в файле robots.txt.
Формат такой:
Crawl-delay: delay
Где delay - время задержки между запросами для одного потока в секундах.
Например:
Crawl-delay: 20 установит задержку в 20 секунд.
Максимальное значение: 50 секунд.
Сергей, возникли три вопроса:
1)Поддерживает ли online версия директивы robots.txt, и если да то как можно просканировать сайт пока запрещенный к индексации директивой
User-agent: *
Disallow: /
?
2)Сканируются ли ссылки в блоках выводящихся javasсript, и рассчитывается ли соответсвенно их вес?
3)Рассчитывается ли вес для ссылок в noidex и nofollow?
1) Да, поддерживает. На данный момент ни как. В Lite версии можно использовать user-agent: pageweight и разрешить только ему. В Online такого пока нет.
2) Нет
3) Noindex идет как обычная ссылка (этот тэг парсер не обрабатывает вообще), nofollow игнорирует полностью. Т.е. если ссылка с этим атрибутом, то парсер считает, что её нет совсем.