- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
это вообще малозначительный фактор в данном случае, интересно именно перераспределение веса по страницам сайта, а откуда он берётся не так и важно
Разница в том что внешние входящие ссылки нельзя задать в программе, их влияние на конкретную страницу можно выразить только ручным изменением веса страницы с 1 на какое-то значение. Вот я и спрашиваю про критерии изменения этого значения в зависимости от характеристик внешних ссылок.
Отправил на почту багрепорт :) или сайт (сервер) банит программу, либо программа изменилась
Отправил на почту багрепорт или сайт (сервер) банит программу, либо программа изменилась
Юзер агент яндекса или гугла ставьте. Я же специально это просил сделать именно, чтобы сервера не отклоняли запросы программы. некоторые сервера продолжают отдавать контент ботам ПС, даже когда пользователю 5хх ошибки отдаются.
Юзер агент яндекса или гугла ставьте. Я же специально это просил сделать именно, чтобы сервера не отклоняли запросы программы. некоторые сервера продолжают отдавать контент ботам ПС, даже когда пользователю 5хх ошибки отдаются.
Хм... не помогло, поменял на Google все равно (превышено время ожидания - хотя странички шустрые и мелкие)
Вот я и спрашиваю про критерии изменения этого значения в зависимости от характеристик внешних ссылок.
вообще не заморачиваюсь по данному поводу, мне более важно - перераспределение веса внутри сайта :)
Юзер агент яндекса или гугла ставьте. Я же специально это просил сделать именно, чтобы сервера не отклоняли запросы программы. некоторые сервера продолжают отдавать контент ботам ПС, даже когда пользователю 5хх ошибки отдаются.
Сервера здесь не причем.
С одного и того же компьютера, один и тот же сайт (5000 стр.):
Page Weight Desktop (пауза между запросами - 50 мсек, таймаут -100 сек, 2 потока) - Время ожидания операции истекло 😡 после 100 страниц
Page Weight Lite (пауза между запросами - 50 мсек) - все OK
вообще не заморачиваюсь по данному поводу, мне более важно - перераспределение веса внутри сайта
Блин, в справке написано:
И стерх несколькими постами выше написал:
Изменять начальный вес имеет смысл на тех страницах, куда ведут ссылки с других сайтов. Какое именно значение ставит - тут скорее на глаз. Если ссылаются жирные страницы, то ставьте больше, если нулевки, то меньше
Вот я тебя и спросил, экспериментируешь ли ты с изменением весом с 1 на другое значение перед расчётом веса. Имея ввиду внешние ссылки. И ты ответил, что да экспериментируешь и неск месяцев с программистом вычислял лучшие варианты. А теперь говоришь, что нет... А внутри сайта, зачем 1 менять на что-то другое перед расчётом веса? Имхо, перелинковку надо менять, а не базовую константу
Str256, значит мы не поняли друг друга :)
я имел ввиду что, не меняю базовую константу - не вижу в этом смысла :)
а просчитывается необходимое количество внутренних ссылок вх/исх
Sterh, проблемка маленькая возникла: при парсинге по списку страниц - не показываются внешние ссылки и нет возможности досканировать новые найденные страницы :)
НетЬ, их шкурки мне дороги! Не отдам! )) Главное определились в каком направлении рыть. Огромное спасибо за содействие в поисках решения проблемы! :)
И все таки я вынужден настаивать !!! Закончил сканирование большого сайта (больше суток), а эта ..... директивы robots не взяла!!!!:
madd:
Когда ждать исправления?