- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Месяц назад сайт вида, www.site.ru с первыми позициями вылетел из поиска, оставались только страницы из каталога ссылок и динамические страницы. Яндекс написал стандартную отписку, что сайт ищется.
Почти все внешние ссылки на страницы с www, но есть насколько на site.ru
Сейчас сайт начал потихоньку возникать в поиске по site.ru.
Может кто сталкивался с такой ситуацией, как вернуть www в выдачу.
Неделю назад прописал в robot.txt :
User-Agent: *
Host: www.site.ru
что еще можно сделать, или проще начать раскручивать вариант
site.ru
Напрягаться не надо, все правильно сделал. Месяц- другой и Я. разберется.
Была подобная проблема после такого же действия дней через 10 все восстановилось, да даже лучше стало.
Неделю назад прописал в robot.txt :
User-Agent: *
Host: www.site.ru
Не совсем поняла. Читала здесь на форуме, что в данном случае правильно писать:
User-Agent: *
Disallow:
Host: www.site.ru
То есть Host обязательно должно идти после Disallow, иначе робот запретит индексацию сайта www.site.ru.
На Яндексе http://www.yandex.ru/info/webmaster2.html то же самое написано. Как же все-таки правильно??
Вот так и правильно:
User-Agent: *
Disallow:
Host: www.site.ru
Неужели Вы не верите яндексу? :-)
А как я могу ему верить, если после того, как я написала именно ТАКОЙ роботс, у меня выпали ВСЕ страницы сайта, указанного в хосте? Остались только несколько динамических страничек, которых уже давно нет, и зеркало... Причем когда добавляешь через аддурл, он пишет, что страницы основного сайта знает. А когда смотришь страницы сайта, известные яндексу, то там только эти самые динамические странички. Когда же я хочу их удалить, то он отвечает, что их и в базе-то никогда не было. Что же все-таки это может быть?
Во как! Ну это уже не ко мне. Я сам пока не настолько спец чтобы такие дела разруливать...
У меня стоит вот такой роботс
User-Agent: *
Disallow:
Host: www.site.ru
и ничего еще ни разу не выпадало и не пропадало,тьфу,тьфу,тьфу...
Ну тогда может кто из профессоров подскажет, как ситуацию разрулить?
Такая же проблема была недавно совсем. Я четыре дня назад передобавил в add url главную и карту, через два-три дня все срослось просто замечательно. А до этого сайт был порезан между www и без. Причем морда была без www. Добавьте заново "карту сайта". Можно символический апдейт сайта сделать, чтобы сервер обещал обновление документа. В любом случае это что-то временное.
на солько я понял в яндексе написано:
Таким образом, файлы robots.txt вида
User-Agent: *
Host: www.myhost.ru
и
User-Agent: *
Host: www.myhost.ru:80
эквивалентны и запрещают индексирование как www.otherhost.ru, так и www.myhost.ru:8080.
а Disallow: ...
должно что то запрещать, директорию там или весь сайт.
А Вы, случайно, после Disallow: косую черту не поставили?