- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В принципе, основные внутренние ссылки - это сквозное внутренне меню или например каталог товаров. Если как-то в программе задать ссылки меню - как шаблон для каждой страницы сайта, или для маски урлов. То если программа не будет по ним идти, при посещении каждой страницы, то это сильно ускорит скан и снизит нагрузку. А вот при расчёте веса, уже эти ссылки подставятся для каждой страницы как фиксированные значения утечки/перетечки веса. Как моя идея?
Программа и так по ним не ходит. Точнее пройдя раз больше не повторяется.
В плане экономии места при скане, возможно. Но только при условии, что эту маску зададут вручную. И то, при заходе на каждую страницу нужно будет все равно все ссылки выкачивать, потом сверять с маской и сохранять только те, что в маске отсутствуют. При этом на каждую страницу еще ставить флаг этой самой маски.
А вот при расчете уже все равно нужно будет все ссылки восстанавливать. Так что то, что сэкономили при скане, займем в процессе подготовки расчета.
Т.е. фактически получается, что меняем шило на мыло, но при этом добавляем лишних операций.
где 1 млн. страниц
на 3+ лямах грохнулась, но это скорей всего из-за попытки во время сканирования посмотреть уже сохранённые результаты :)
Рачёт занимает куда меньше времени чем скан, а комп когда ссылок становится много миллионов начинает ощутимо тормозить. Ведь бывает, что на одной странице сотни или тысячи внутренних - меню каталога к примеру. Поэтому если, в базу будет сохраняться многокрано меньше ссылок это +.
Понятно дело что вручную, проходишь по сайту, ищешь маски с одинаковыми параметрами - потом задаёшь, маску и список исходящих к ней.
Ребята добрый день!
Вчера приобрёл программу, установилась хорошо, всё ок.
Отсканировал свой сайт, посчитал веса.
Как теперь смоделировать появление новых внутренних ссылок на интересующие меня внутренние страницы, которым хочу передать вес?
До конца не удалось разобраться. Буду очень благодарен за ссылку в этой ветке, либо где-то ещё, где есть подробный "разбор полётов". Просьба основана на очень серьёзной нехватке времени, дома маленький ребёнок и ничего не успеваю
Спасибо большое.
Как теперь смоделировать появление новых внутренних ссылок на интересующие меня внутренние страницы, которым хочу передать вес?
Двойной клик по странице, где хотите добавить/удалить ссылку, и вверху появятся кнопки
[ATTACH]133613[/ATTACH]
Не знаю, может уже спрашивали. Программ игнорирует правила в robots аля
Disallow: *?start=*
Disallow: */shop-login?view=reset
и т.д.
Так и задумано или это я что-то недонастроил?
Не знаю, может уже спрашивали. Программ игнорирует правила в robots аля
Disallow: *?start=*
Disallow: */shop-login?view=reset
и т.д.
Так и задумано или это я что-то недонастроил?
Перепишите роботс:
Disallow: /*?start=*
Disallow: /*shop-login?view=reset
Можно сначала на локальном файле попробовать
Перепишите роботс:
Disallow: /*shop-login?view=reset
Может лучше:
Disallow: /*/shop-login?view=reset
В зависимости от того что надо запретить
Вообще програма вроде понимает стандартные конструкции. Для проверки которых можно использовать яндекс или гугл вебмастер.
Единственно, насколько помню были проблемы с директивами Аллов, если их несколько штук, с запретами дисаллов после каждого. Но давно так уже не делал, так что проверить не где, может уже и исправлено.
Перепишите роботс:
Disallow: /*?start=*
Disallow: /*shop-login?view=reset
Можно сначала на локальном файле попробовать
Может лучше:
Disallow: /*/shop-login?view=reset
В зависимости от того что надо запретить
Спасибо, учту.
Вообще програма вроде понимает стандартные конструкции. Для проверки которых можно использовать яндекс или гугл вебмастер.
Ну, сервис проверки robots Яндекса вполне себе такие конструкции понимает, Гугл в панели вебмастера тоже не ругается. Вроде как, ничего лишнего они не закрывают. Но все равно спасибо за ответ.
Подскажите, почему основная масса страниц с сайта сканируется с ошибкой 503 Service Unavailable (примерно 90% от всех страниц сайта)?
Да, страницы, естественно, доступны и отдаются с 200 ОК
Upd.: еще и тайтлы всех страниц кракозябрами написаны, хотя при сканировании пишет что кодировка определена. Человеки, подскажите, пожалуйста, как это чудо-прогу готовить?