- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня сайт доступен по двум ссылкам сразу, одна из них полность проиндексированна.. что произойдет если яндекс проиндексирует те же страницы по второй? И можно ли в robot.txt запретить индексацию по одной из этих двух ссылок?
Во-первых не robot.txt, а robots.txt
Во-вторых - ничего больше я понять не смог... по-русски плиз :)
если совсем теже страницы, то склеит.
Можно. Вопрос только - нужно ли...
Lazarev, два домена куплено у человека :)
www.artdo.ru
http://levan3.cemu.ru
один и тот же сайт.... как мне запретить видить яндексу вторую ссылку?
Зеркало сайта - как выбрать главный виртуальный хост из нескольких зеркал сайта
Для того, чтобы индексировалось выбранное вами зеркало, достаточно запретить индексацию всех остальных зеркал при помощи файла robots.txt. Это можно сделать, используя нестандартное расширение стандарта robots.txt — директиву Host, в качестве ее параметра указав имя основного зеркала. Если www.reklama.su — основное зеркало, то robots.txt должен выглядеть примерно так:
User-Agent: *
Disallow: /forum
Disallow: /cgi-bin
Host: www.reklama.su
В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву Host необходимо добавлять в группе, начинающейся с записи User-Agent, непосредственно после записей Disallow.
Аргументом директивы Host является доменное имя с номером порта (80 по умолчанию), отделенным двоеточием. Если какой-либо сайт не указан в качестве аргумента для Host, для него подразумевается наличие директивы Disallow: /, т.е. полный запрет индексации (при наличии в группе хотя бы одной корректной директивы Host). Таким образом, файлы robots.txt вида
User-Agent: *
Host: www.reklama.su
и
User-Agent: *
Host: www.reklama.su:80
эквивалентны и запрещают индексирование как www.volchat.ru , так и www.reklama.su:8080 и news.reklama.su .
Параметр директивы Host обязан состоять из одного корректного имени хоста (т.е. соответствующего RFC 952 и не являющегося IP-адресом) и допустимого номера порта. Некорректно составленные строчки Host игнорируются.
# Примеры игнорируемых директив Host
Host: www.myhost-.ru
Host: www.-myhost.ru
Host: www.reclama.su:0
Host: www.my_host.ru
Host: .my-host.ru:8000
Host: reklama.su.
Host: my..host.ru
Host: www.reklama.su/
Host: www.reklama.su:8080/
Host: http://www.reclama.su
Host: www.mysi.te
Host: 213.180.194.129
Host: www.reklama.su,www.volchat.ru
Host: www.reklama.su www.volchat.ru
Если у вас сервер Apache, то можно вместо использования директивы Host задать robots.txt с использованием директив SSI:
<!--#if expr=" \"${HTTP_HOST}\" != \"www.reclama.su\" " -->
User-Agent: *
Disallow: /
<!--#endif -->
В этом файле роботу запрещен обход всех хостов, кроме www.reclama.su
Как включать SSI, можно прочесть в документации по вашему серверу или обратиться к вашему системному администратору. Проверить результат можно, просто запросив страницы:
http://www.ebanners.ru/robots.txt
http://другое_имя.ru/robots.txt
и т.д. Результаты должны быть разные.
www.artdo.ru
http://levan3.cemu.ru
один и тот же сайт.... как мне запретить видить яндексу вторую ссылку?
Смотря чего хотите добиться.
1. В роботс.тхт пропишите директиву хост на нужное зеркало
В результате можете потерять трафик - нужно смотреть на количество проиндексированных по доменам. ТИЦ склеится
2. 301 редирект на нужное зеркало (не знаю, бесплатный ли хостинг цему.ру - если да, то не факт, что позволит хостер)
Траф не потеряете, ТИЦ не склеится
3. Все ссылки с неглавного зеркала должны вести на главное.
На мой взгляд, самый корректный метод
Не пишите
User-agent: *
Disallow: /dir
Host: сайт.ру
Директиву хост понимает только яндекс, поэтому не факт, что остальные ПС посчитают такой роботс.тхт валидным
Корректно так:
User-agent: *
Disallow: /dir
User-agent: Yandex
Disallow: /dir
Host: сайт.ру
Умные буржуи советуют ставить директивы для отдельного робота выше, чем директивы для всех. Тут не знаю - у всех сайтов, за которыми слежу, яндексовские директивы стоят в самом низу
Николай, ниасилил, как говорится, не проще человеку прописать "Host: www.domain.ru" в роботах?
Quietm, я бы сначала прописал бы Host: www.artdo.ru в роботсе для обоих, а потом сделал бы модреврайт 301 с http://levan3.cemu.ru на www.artdo.ru
Вот, Андрей дело говорит.