- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
проверить на что?
На содержимое, может быть много причин блокирования. Проще всего пройтись по файловым каталогам, начиная с корня, последовательно копируя эти файлы по одному на локальный диск, удаляя файл и проверяя доступ бота. Затем, если все без изменений, вернуть файл на место. Если найдете проблеммный файл, то анализировать содержимое. Это plain text файлы.
То же самое для файла robots.txt в корне. Если сайты построены на PHP, то неплохо проверить php.ini файл.
Проверьте время на сервере (команда date на unix), исключите это, как возможную причину.
Если время не правильное, исправьте и снова сделайте запрос из WMT->Fetch as Google.
Потом дальше будем думать....
Плюс я бы советовал провести эти действия вместе с администрацией хостинга ну или нанять толкового админа если у вас dedicated server.
Тоесть ТС делает запрос из WMT, хостера мониторят логи и анализируют активность этого гуглбота в плане что он просит и что получает.