- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Товарищи, помогите разобраться с Canonize-host в robots.txt
Ктонибудь на личном опыте испытал действие такого указания роботам?
Результат есть?
Что конкретно происходит при использовании Canonize-host???:
- робот просто воспринимает указанный урл как основной и забывает про нежелательный урл и все что его касалось
или
- робот не просто воспринимает указанный урл как основной но и все внешние факторы (ссылки) указывающие на нежелательный урл автоматически присваиваются новому основному урлу.
Пожалуйста, проверьте, правильно ли я прописываю указания роботу:
User-Agent: *
Canonize-host: www.желаемый урл.ru
С Новым Годом
ок
Если оно так надо Canonize-host в robots.txt
то вариантов испраления много и не понятен вопрос.
основным вопросом являются 1 и 2 пункты сообщения
о том испытал ли ктото на себе действие канонайз хост!!!???
и о том что происходит с внешними факторами нежелательного урла.
Пример:
есть страница www.page.ru , она же и раскручивается
но яндекс выдает страницу page.ru как результат поиска. Мне нужно объяснить роботу яндекса, что страница www.page.ru является основной, а страница page.ru ненужная вариация (тем более что pr страницы с www выше чем у страницы без)...
вопрос в том, что происходит с внешними факторами (ссылками) адреса без www когда робот перестает его воспринимать и заменяет в базе на адрес с www указанный в роботс тхт, переходят ли они автоматически в "копилку" адреса с www или безвозвратно утерянны...
Надеюсь мне удалось передать свою мысль;)
Ну и отсюда вытекает третий вопрос, о корректности написания роботс тхт в моем случае
Яндекс поддерживает директиву host.
Зеркала должны склеиться, ссылки просуммироваться.
Пример:
Disallow:
User-agent: Yandex
Disallow:
Host: www.page.ru