- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Я джпеги, и раньше исключал - сайты быстрее сканируются. Одно дело если это страница на которой текст + фото, а другие дело только фото.
Но вот там щас в списке исключений по умолчанию doc документы. И я не уверен что это правильно. Так как ссылки в них индексируются и бот может по ним дальше пойти.
Если зайти в расширенный поиск Яндекса, то видно что по умолчанию идёт поиск по:
html
pdf
doc
rtf
doc попадаются редко, но метко. Если программа начинает их тянуть, то сильно возрастает время загрузки. При этом, как правило, сами документы для скачивания doc, pdf и т.п. не содержат в себе ссылки, ведущие на страницы сайта к которому "привязаны".
Таким образом мы получаем на какой либо странице одну ссылку на скачивание документа, а с самого документа обратной связи не имеем. Т.е., если эти документы выкидывать, то при расчете получает небольшая погрешность и не более.
Поэтому и включили по умолчанию - лучше допустить небольшую погрешность в пользу скорости, чем наоборот.
А вот не знаю, писали ли тут про то, что во вкладке программы "Внешние ссылки" при сканировании документа с элементом <base href="..." /> внутренние ссылки с относительным путем считаются как внешние.
А вот не знаю, писали ли тут про то, что во вкладке программы "Внешние ссылки" при сканировании документа с элементом <base href="..." /> внутренние ссылки с относительным путем считаются как внешние.
А может base href не корректно прописан? Раньше довольно часто сталкивались с подобной проблемой, и проблема была как правильно именно в кривости кода.
Впрочем, УРЛ проблемного сайта мне в личку или тех. поддержку.
Здравствуйте, подскажите по следующему вопросу.
Сейчас пользую Ксену, но смортю в сторону Page Weight, на сайте сказано что работает НЕ стабильно с большим количеством страниц. Собственно вопрос:
Ксену показывает 6500 урлов включая урлы картинок и html страницы, Page Weight справляется с таким количеством?
И есть ли демо версия, не нашел на сайте?
Ксену показывает 6500 урлов включая урлы картинок и html страницы, Page Weight справляется с таким количеством?
И есть ли демо версия, не нашел на сайте?
Ссылок до миллиона. Страниц - считается 5к максимум, но может быть и больше и меньше. Картинки - не надо сканировать, в исключения сразу добавлять.
Проблема:
В Битых ссылках можно перейти на страницу с битой ссылкой - есть такой пункт меню и есть титл страницы где эта ссылка расположена.
А в внешних ссылках такого пункта нету. Есть 4 колонки, во всех только - перейти на урл куда идёт ссылка. Надо добавить, иначе не найдёшь её. Версия 1.8.9. - вроде последняя.
P.S. Вот ещё проблема.
Сперва просканировал сайт без роботс.тхт - выдало много страниц там закрытых. Включил повторное сканирование, с использованием списка уже полученных страниц. Так вот список этих страниц закрытых в роботс.тхт остался.
Сслки ведущие на страницу - 0
Ссылки ведущие со страницы - хх
Условный вес - 1
Удалить их скопом нельзя - через шифт, выделение не работает, да и по одной тоже нельзя - нет пункта удалить. После расчёта веса они тоже остаются с весом 1. В общем не порядок.
Проверял два сайта дважды - происходит одно и тоже, программа работает несколько часов (ночь, день-съдает по пол гига трафика) насчитывает кучу страниц и затем просто напросто вырубается, "ни ответа ни привета".
Проверил сайт где страниц 50, она мне насчитала 2!?? Лажа какая-то получается, стоит ли такой программе доверять? Деньги за неё берут, прога толком не работает, поддержка молчит, а трафик жрёт что можно разориться! Ау, создатели, вы где? Это лохотрон што-ли?
Может кто-нибудь посоветует прогу типа этой, но нормальную, что бы она работала стабильно, побыстрее(ночь комп жужжит), не жрала столько трафика, могла работать с сайтами на которых 10 000 и выше страниц.
http://clip2net.com/s/2dy4i выбило на сайте через несколько часов сканирования, что у вас за программа такая что не дает результата?
Выбила второй раз.
Может кто-нибудь посоветует прогу типа этой, но нормальную, что бы она работала стабильно, побыстрее(ночь комп жужжит), не жрала столько трафика, могла работать с сайтами на которых 10 000 и выше страниц.
2.0 версия сейчас тестируется, там теоретически должно быть быстрее, с автосохранениями и без ограничения числа страниц. А трафик - от размера сайта зависит - прога для того чтобы получитть все внутрение ссылки фактически скачивает сайт, кроме тех файлов что есть в списке исключений. И потом кто трафик сейчас считает, меняйте провайдера если дорого. Или на онлайн-версию переходите.
И потом кто трафик сейчас считает, меняйте провайдера если дорого. Или на онлайн-версию переходите.
У меня МТС, тариф интернет-мини, это 4 ГИГА на месяц, мне всегда хватало, а тут ночь, день и двух гигов нема! :)
А от такого издевательства меня уже тошнит, сегодня наконец-то тех.поддержка соизволила ответить, сообщила что у меня имеется какой-то косяк на сайте он создаёт петлю "ссылочную" и поэтому когда идёт сканирование программой Page Weight она начинает сначала "кружить" по кругу день, ночь, а потом когда вообще "тупанёт" вырубается! Чё молчали столько времени, а я тратил своё время и нервы.
😡
Блин и смайлики тут корявые, вот здесь прикольные.