- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
как проверить сайт на наличие 404
/1_2_3_4_5.html
И если в заголовке есть 404, то все ок
как проверить сайт на наличие 404
Битых ссылок? Се-монитор может.
Софтина есть, XENU зовётся, покажет всё, чего у тебя нету, но должно быть по коду, включая ссылки, файлы все и т.п.
Добавить сайт в Яндекс.Вебмастер...
http://be1.ru/stat/
Tatar_malay, видимо, погуляв по нему (и, видимо, с применением софта/сервисов). Сайт, видимо, Ваш?
Чтобы не создавать еще одну тему...
Установлен Platinum SEO Pack, который вместо страницы шаблона или генерируемой 404 ошибки сервером, выдает страницу поиска с пустым запросом. (ссылки не по типу ЧПУ)
Как сделать, чтобы этого не происходило и как удалить уже попавшие в индекс страницы с таким вот "пустым результатом поиска"?
Такие страницы через Я delurl удалить не получается:
"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex."
Конечно, как вариант, можно отредактировать роботс.тхт для каждой такой страницы, но как сделать так чтобы такие страницы больше в индекс не попадали...
Такие страницы через Я delurl удалить не получается:
"Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex."
Вы сами ответили на свой вопрос
Конечно, как вариант, можно отредактировать роботс.тхт для каждой такой страницы,
Тем самым появятся основания для удаления
но как сделать так чтобы такие страницы больше в индекс не попадали...
Уберите ссылки на эти страницы