- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день,
у меня есть сайт, на котором WMT определил 700-800 ошибок сканирования( все ошибки в категории "Не найдено"), при этом на всех этих страницах идет ответ сервера 404.
Не долго думая (возможно зря), я отправил запросы на удаление данных страниц, получил подтверждение что страницы удалены.
Затем отметил что ошибки исправлены. и был спокоен.
Спустя некоторое время, все ошибки сканирования вернулись, и их даже стало больше - около 950.
Пример страницы:
http://www.abrupt.ru/business/spravka-o-nesudimosti.html
Скрин статистики с ошибками:
Какие действия мне следует предпринять?
1)Удалить повторно?
2)Удалить эти ссылки из sitemap.xml и повторно удалить?
3)Что то другое, что посоветуете?
Спасибо.
Апдейт темы.
Подскажите хоть что то? В какую сторону копать?
Неужели никто не сталкивался с таким?
На Вас или ссылаюься на эти страницы, или Вы сами ссылаетесь, если сами внутри своей cms ссылаетесь поправьте данный баг, а потом уже удаляйте в панели, если ссылаются дорвейщики по куску текста то вешайте 301 редиректы на нужные вам страницы и потом удаляйте. Если не хотите чтобы сслыались заблокируйте данные домены
Никто не ссылается на меня из вне.
Как определить на какой странице моего сайта, стоит эта битая ссылка?
Подскажите хороший софт или онлайн сервис.
в wmt есть возможность посмотреть откуда "дровишки" (ссылки)
прогнать сайт через xenu's проанализировать результат.
Попытаться исправить.
Если страницы действительно не существуют, то попытаться настроить не 404 ошибку, а 410 и... ждать!!! (я ждал около полугода, а ссылки получил за 2дня)
прогнать сайт через xenu's проанализировать результат.
Xenu нашел только 46 ссылок битых.
Есть подозрения что это из за sitemap.xml, который делался через онлайн сервис.
Есть ли какие то сервисы создания карты сайта, которые учитывают директивы disallow в robots.txt?