- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
О вебмастерке гугла и том что в ней можно удалить почти всё я итак знаю. Вопрос в следующем.
Купил домен переделал всё удалил старый отстствующий контент добавил новый однако остались ещё в выдаче страницы такого вида www.domain.com/?p=141 добавил правило с htaccess что бы ссылки такого рода шли в 404 а ответ сервера был ненайдено, добавил правило в robots.txt о том что бы ссылки с параметром ?p не индексировались роботами однако страницы так и висят в гугле. Подскажите пожалуйста что можно сделать что бы удалить их?
П.с. если я просто добавлю ссылку вида www.domain.com/?p=141 через вебмастерку гугла на удаление мне гугл предложит удалить весь сайт...
если я просто добавлю ссылку вида www.domain.com/?p=141 через вебмастерку гугла на удаление мне гугл предложит удалить весь сайт...
Он удалит только страницу с этим урлом.
Недавно хотел удалить ссылки вида www.domain.com/download.php?file=xxxxxx послал запрос на удаление www.domain.com/download.php через сутки они удалили только этот чистый урл, а все, где после имени файла идёт ?file=xxxxxx остались висеть в выдаче.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Ну так это собственно не решает проблемы ))) Думаю что можно всё-таки каким-то образом избавиться от этих страниц в выдаче?
Думаю что можно всё-таки каким-то образом избавиться от этих страниц в выдаче?
Как найдёте решение, чиркните здесь. Тоже актуально. База файлов на одном сайте упала, и гугл наиндексировал несколько тысяч не существующих страниц. Когда файлы были не доступны, скрипт выдавал сообщения, что они недоступны. Гугл проиндексировал все эти одинаковые сообщения как страницы.
Можно попробовать наоборот открыть индексацию в robots.txt, убрать правило в htaccess, а в самих страницах выдавать <meta name="robots" content="noindex">.
По идее через месяц такие страницы должны удалиться из индекса.
Можно попробовать наоборот открыть индексацию в robots.txt, убрать правило в htaccess, а в самих страницах выдавать <meta name="robots" content="noindex">.
По идее через месяц такие страницы должны удалиться из индекса.
А если страниц уже физически не существует создавать их заново чтоли?
А если страниц уже физически не существует создавать их заново чтоли?
Создать одну и на неё редиректить
Создать одну и на неё редиректить
А если по этой ссылке идёт загрузка файла, а в индекс она влетела тогда, когда файл не доступен был?
А если по этой ссылке идёт загрузка файла, а в индекс она влетела тогда, когда файл не доступен был?
Может быть сделать страницу-редиректор уведомляющую о начале загрузки и её закрыть от индексации?
Scooter, тебе нужно на такой странице в http-заголовке отдавать код 404 Not Found и в хеде документа отдавать <meta name="robots" content="noindex"> (я отдаю для пущей уверенности content="noindex,nofollow" ), а в роботсе ни в коем случае не запрещать эти страницы.
Технически на ДЛЕ это решается очень просто (небольшая модификация кода), а вот в Вордпрессе и прочих двигах - просто не колупался досконально :)
ЗЫ: взято из рекомендаций ГуглоВебмастера и работает на ура.
535i добавил 30.05.2011 в 13:37
ЗЫ2: поясню логику..
если на несуществующую страницу ссылается хотя бы одна внутренняя или внешняя страница - гугл будет пытаться до усирачки индексить эту страницу (невзирая на код 404 или запрет в роботсе). поэтому, запрещать её в роботсе нельзя - так и будет в ошибках висеть. нужно её разрешить в роботсе, потом отдать на неё код 404 и метатег content="noindex" - тогда её при следующем обращении выкинет из индекса/ошибок.
если страница без метатега (или запрещена в роботсе) и при этом отдает код 404 - то бот ломится на неё, пишет её в ошибки и пытается индексить чуть ли не вечно ;)