- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
то что в этом случае лучше делать чтобы сайт быстрее вернулся в индекс?
1) Ждать пока Яндекс сам всё делает и проиндексирует домен site.ru , который он выбрал основным.
2) Прописать в роботсе что основным надо считать домен www.site.ru .
1+2, вернее 2+1 прописать и ждать
Ну и как же нужно правильно прописать robots.txt ?
Прочитав про него информацию, так нифига и не понял.
http://www.seo.su/articles.php?id=89
То есть в роботсе наоборот запрещается индексация страниц сайта !
А как же надо прописать его, чтобы случайно не ошибиться и не запретить индексацию всего сайта, а только части ?
Тут написано
http://www.ebanners.ru/viewtopic.php?t=63
User-Agent: *
Disallow: /forum
Disallow: /cgi-bin
Host: www.reklama.su
...
Код:
User-Agent: *
Host: www.reklama.su
Код:
User-Agent: *
Host: www.reklama.su:80
эквивалентны и запрещают индексирование как www.volchat.ru , так и www.reklama.su:8080 и news.reklama.su .
Получается что так нельзя писать раз оно запрещает полностью индексацию??
growpr, директиву хост нужно прописывать только для Я.
User-Agent: Yandex
Disallow:
Host: www.reklama.su
этим Вы покажете роботу Я. какое зеркало основное. Некоторые могут Вам сказать, что
в Disallow: в этом случае нет необходимости, но я не уверен.
Получается что так нельзя писать раз оно запрещает полностью индексацию??
Ещё раз - директива host ничего не запрещает, запрещает Disallow, когда она написана в соответствии со стандартом.
Совершенно верно. Тоже некоторые сайты проходили через это - Яндекс выбирал в качестве основного зеркала то с www то без оного, но позиции от этого не менялись, хотя все ссылки стоя на сайт с www 🚬
Как я и думал и писал про зеркала, в подтверждение тому пришел ответ от Платона:
Сейчас сайт участвует в поиске по адресу site.ru -
http://www.yandex.ru/yandsearch?text=rhost%3D%22ru.site%22&pag=u&surl=site.ru&
Файл robots.txt размещен корректно, со временем зеркала должны будут
переклеиться и в поиске сайт будет под именем www.site.ru. К сожалению,
переклейка зеркал - довольно длительный процесс (от 4 до 7 недель), ускорить
вручную мы его не можем.
--
С уважением, Платон Щукин
Служба поддержки Яндекс.Ру
http://help.yandex.ru/
>Доброе время суток!
> Являюсь администратором сайта www.site.ru
> 6 февраля 2007 г. сайт выпал из
> поисковой выдачи, как впрочем из индекса тоже.
> При добавлении www.site.ru через ADDURL, соббщается что сайт
> www.site.ru является зеркалом сайта site.ru. При этом вариант без www
> добавляется без проблем.
>
> Буду Вам весьма признателен, если поясните причину выпадения сайта из индекса.
> Если это бан, просьба, укажите Вероятную причину.
>
> С уважением, Зорин Артем
Весьма оптимистичные прогнозы😕
Господа, как это можно сделать не прибегая к файлу robots.txt
Есть ли решение?
SubAqua, на одно из зеркал можно поставить ошибку 404 или серверный редирект на другое. Правда, последствия не очень предсказуемы, особенно для уже склеенного сайта.
Господам, кто сомневается в необходимости строки Disallow: она необходима (по крайней мере, была необходима до введения нового зеркальщика). Роботс с пустым Disallow:
— ничего не запрещает.И все-таки роботу, насколько я вижу, параллельно какой там Host прописан в роботс... 🙅
Пока нашел 1 сайт, на котором явно прописано:
User-agent: *
Disallow: /admin/
Host: www.site.ru
А в результате главное зеркало, правильно, без www!..
Причем раньше (около года назад) все было нормально: было неправильное зеркало, но после прописывания хоста в роботс все встало на свои места.
BigBrother, это бага или фича?
User-agent: *
Disallow: /admin/
User-agent: Yandex
Disallow: /admin/
Host: www.site.ru
Господа, как это можно сделать не прибегая к файлу robots.txt
Есть ли решение?
Поставить редирект с кодом ошибки 302 (вроде), с site.ru на www.site.ru, но в таком случае ссылки на site.ru не будут считатся ссылками на www.site.ru.
В случае когда прописан хост в robots.txt ссылки на site.ru считаются ссылками на www.site.ru, в том числе и на внутренние страницы: site.ru/page1/ равнозначно www.site.ru/page1/