Xenu -умеет массово.
Постранично удобно Google Chrome + SEO Quake плагин.
Но это лучше не в этом разделе спрашивать. Надеюсь перенесут в "Любые вопросы от новичков".
Зашел на сайт посмотрел. Поскольку, самому частенько приходится делать аудиты сайтов, как SEO, так и юзабилити, могу сказать, что цены конечно странные.
С одной стороны, я понимаю, что расчет ссылок на многостраничном сайте занимает тучу времени, особенно если хостер ограничивает количество обращений к сайту в единицу времени. С другой стороны, почему бы это не сделать самостоятельно на локальной копии сайта с помощью Page Waight?
Все остальное делается site-auditor.
Вы бы тестовый аудит опубликовали, например сайта searchengines.ru.
Может быть мы все чего-то не понимаем?
Покупал на днях Key Collector домой. Во первых, хочу поблагодарить за оперативность, во вторых, за отличный функционал. До этого использовал бесплатные версии и известными названиями. Ну и за скидку отдельное спасибо.
Установилось и заработало все сразу, т.ч. оперативность саппорта протестировать не удалось. :-)
Удачи!
И на всякий случай гляньте выдачу Гугла по сайту. Не появились ли случайно дубли страниц?
Поправил, спасибо за замечание. Да не бред это. Это главный заголовок страницы. Зачем их больше одного?
Почти никогда не пишу на форуме, но сейчас не выдержал. Уже всем устали повторять, что тег <h1> должен быть на странице в количестве "одна штука". А так, нормальный такой сайтик в стиле "совпартшкола". Молодость напомнил.
Интересно, что при этом в закладки очень неудобно добавлять. Кстати, а боты такое поведение скрипта как вредоносный код не воспримут?
PS: Это я все без задних мыслей написал, просто тоже на сайт посмотрел, решил в закладки добавить, пришлось джава-скрипт отключать.
PPS:А RSS - действительно зло на таком сайте, кому интересно, и так зайдет.
Только что похожую проблему решал. В индекс выползли технологические домены 3-го уровня. В панели WMT Конфигурация сайта -> Доступ для сканера -> Удалить URL -> Создать запрос на удаление для каждого URL. За сутки-двое удалит из поиска и кэша. Перед этим в .htaccess сделайте чтобы удаляемые страницы отдавали 404-ю или 410-ю ошибку. Только перед тем как все делать справку почитайте.
Закрывать в роботс сайт не нужно, Вам правильно подсказали. Т.к. крэвл про сайт после этого на долго забудет.
Главное, не пугайтесь объема этой процедуры. Я вчера за пару часов 1300 урлов вычистил. Сегодня утром их уже нет ни в поиске, ни в кэше.
wakh по всей видимости прав. Я вот переклеивал основное зеркало на без www и не снял 301-й редирект. Вот сайт и болтается в панели вебмастера как известно что в проруби. Попробую снять и подождать еще пару месяцев, потом поставить. На всех остальных сайтах, где редирект изначально стоял, все нормально.
Да тут не "за что" нам такое от Яндекса, а скорее "потому что", это не очень быстрая поисковая система, и изменение индексации и поисковой выдачи происходит неделями, а зеркалирование месяцами, т.к. это не самая приоритетная функция. Именно это и усложняет оптимизацию сайта под Яндекс. Все мы любим получать быстрый результат, а тут он невозможен. Google в этом плане намного оперативнее, 2-3 дня и видны изменения.