- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день!
Писал уже в ветку Google. Аналогичная проблема с Яндексом. 3 недели был недоступен доступ к файлу robots.txt для всех поисковых систем (хостер заблокировал, якобы из-за того, что было слишком много обращений от их ботов).
И вот буквально вчера-сегодня вылетели все страницы из поиска яндекса (и пропадает траффик). Страниц было много (несколько сотен тысяч) и трафик немаленький. :(
Сегодня постараемся полностью решить вопрос с хостером и постараемся сделать файл robots.txt доступным.
Пока интересно мнение людей, кто уже сталкивался с подобными ситуациями (сам я впервые столкнулся). Если мы сегодня доступ к robots.txt восстановим, то как скоро все страницы вернутся в поиск (и вернется трафик), и не будет ли просадки по позициям?
Спасибо!
Есть сайты которые живут без robots.txt и нормально себя чувствуют.
Ищите другие проблемы, меняйте хостера.
Их хелпа Яндекса:
так что дело не в недоступности robots.txt
Есть сайты которые живут без robots.txt и нормально себя чувствуют.
Ищите другие проблемы, меняйте хостера.
Был закрыт доступ к сканированию сайта на 3 недели. Вопрос сейчас стоит - как вернуть индексацию и скоро ли вернутся все страницы в поиск? (на опыте других проектов, например)
Может еще какие-то рекомендации получить.
Несколько раз хостинг-провайдер "подкладывал" такую бяку, блокировал боты Яндекс, все возвращалось через 1.5-2 недели.
Может еще какие-то рекомендации получить.
Уберите ограничение и создайте несколько свежих ссылок для индексации. Всё наладится ;)
Гугл бота можно слегка поторопить
В google.com/webmasters/tools/ Сканирование - Просмотреть как Googlebot - Сканировать и Отобразить - Сканировать этот URL и прямые ссылки
Вернуть индексацию просто, ссылки с очень трастовых, быстрых, качественных ресурсов на важные разделы + посты с разных социалок на всё до чего дотянетесь.
Проверьте карту сайта.
Dimank, robots - просто рекомендация к индексированию документов.
Раз хостер его блочил, то, вероятно, мог и "случайно" заблочить ботов Google и Яндекс (такое наблюдал 1 раз). Хостер не признал свою вину, но и не пытался как-то отнекиваться.
В итоге - переезд на нормальный хостинг и через пару апов должен начать входить в индекс Яндекса, в гугле должно пойти через несколько дней.
Я бы жёстко поступил, если с правилах хостера нет пункта о таких ограничениях. Высчитал прибыль и подал бы в суд. Если есть, то при выборе хостера советую читать Договор.
Все дело в robots.txt , сайт должен вернуться в индекс через 2 апа, но вот на счет позиций - это вопрос
Все дело в robots.
Чушь. Причем тут вообще роботс? Судя по всему, хостер просто заблокировал айпи яндекса.