- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
равильна ли будет в таком случае конструкция роботс.тхт ?
на старом домене
User-Agent: Yandex
Host: www.новый сайт.ru
User-Agent: *
Host: www.старый сайт.ru
Из секции * директиву Host можно смело убирать - всё равно, кроме Яндекса, ее не поддерживает
на новом домене
User-agent: Googlebot
Disallow: /
User-Agent: *
Host: www.новый сайт.ru
А зачем Вы от Гугля новый сайт закрываете? Он по старому адресу получит 301 на новый, а по новому - отлуп. Или так задумано, что в гуглевская выдача не интересует? :)
Правильна ли будет в таком случае конструкция роботс.тхт ?
на старом домене
User-Agent: Yandex
Host: www.новый сайт.ru
User-Agent: *
Host: www.старый сайт.ru
на новом домене
User-agent: Googlebot
Disallow: /
User-Agent: *
Host: www.новый сайт.ru
Неправильно. :)
Везде можно прописать:
Disallow:
Host: www.новый сайт.ru
User-Agent: *
Disallow:
и ждать...
есть опыт по 3 сайтам - 2 месяца на тиц.
Зеркало на забаненый сайт тоже банится?
Из секции * директиву Host можно смело убирать - всё равно, кроме Яндекса, ее не поддерживает
Не соглашусь.
На одном из сайтов aaa.com есть роботс в котором указано host aaa.com, при редизайне сайта bbb.com в его корневую директорию по ошибке попал роботс сайта aaa.com с директивой host aaa.com.
Начались проблемы с рамблером.
Вот ответ их сапорта:
Согласно прописанной директиве в файле robots.txt наш автоматический склейщик зеркал посчитал основным сайтом aaa.com , а bbb.com зеркалом, поэтому его некорректно индексирует.
Помимо директивы host там только пара команд на закрытие служебных папок.
Помимо директивы host там только пара команд на закрытие служебных папок.
Любопытно. В хелпе Рамблера не нашел упоминаний директивы Host: http://help.rambler.ru/article.html?s=221&id=327
интересная тема. а как часто производиться апдейт склейки зеркал ?
Интересно, если алгоритмы принимают решение о бане, тогда и новый сайт-копия должен быть в бане в соответствии с этими алогритмами, иначе, получится, что сайты отправляются в бан по рэндому, а не алгоритму.
Клеил в конце лета сайт - "развивайте_для_пользователей", и старый домен и новый в бане.