Ошибки сканирования WMT - вернулись после "исправления"

I
На сайте с 15.08.2012
Offline
17
524

Добрый день,

у меня есть сайт, на котором WMT определил 700-800 ошибок сканирования( все ошибки в категории "Не найдено"), при этом на всех этих страницах идет ответ сервера 404.

Не долго думая (возможно зря), я отправил запросы на удаление данных страниц, получил подтверждение что страницы удалены.

Затем отметил что ошибки исправлены. и был спокоен.

Спустя некоторое время, все ошибки сканирования вернулись, и их даже стало больше - около 950.

Пример страницы:

http://www.abrupt.ru/business/spravka-o-nesudimosti.html

Скрин статистики с ошибками:

Какие действия мне следует предпринять?

1)Удалить повторно?

2)Удалить эти ссылки из sitemap.xml и повторно удалить?

3)Что то другое, что посоветуете?

Спасибо.

png 1.png
I
На сайте с 15.08.2012
Offline
17
#1

Апдейт темы.

Подскажите хоть что то? В какую сторону копать?

Неужели никто не сталкивался с таким?

W0
На сайте с 02.04.2007
Offline
189
#2

На Вас или ссылаюься на эти страницы, или Вы сами ссылаетесь, если сами внутри своей cms ссылаетесь поправьте данный баг, а потом уже удаляйте в панели, если ссылаются дорвейщики по куску текста то вешайте 301 редиректы на нужные вам страницы и потом удаляйте. Если не хотите чтобы сслыались заблокируйте данные домены

I
На сайте с 15.08.2012
Offline
17
#3

Никто не ссылается на меня из вне.

Как определить на какой странице моего сайта, стоит эта битая ссылка?

Подскажите хороший софт или онлайн сервис.

C
На сайте с 04.02.2005
Offline
288
#4

в wmt есть возможность посмотреть откуда "дровишки" (ссылки)

прогнать сайт через xenu's проанализировать результат.

Попытаться исправить.

Если страницы действительно не существуют, то попытаться настроить не 404 ошибку, а 410 и... ждать!!! (я ждал около полугода, а ссылки получил за 2дня)

I
На сайте с 15.08.2012
Offline
17
#5
Chukcha:

прогнать сайт через xenu's проанализировать результат.

Xenu нашел только 46 ссылок битых.

Есть подозрения что это из за sitemap.xml, который делался через онлайн сервис.

Есть ли какие то сервисы создания карты сайта, которые учитывают директивы disallow в robots.txt?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий