- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В очередной раз решил поудалять из индекса страницы, отдающие 404,
зашел в WMT поделал заявки на удаление страниц, и не знаю даже почему, наверное силы свыше приказали
мне пересмотреть на что я подал заявку. Одна из страниц была вот такая:
имя.com/?cat=60 и я на автомате удаляя страницы не обратил внимание, что
WMT определил эту страницу как сайт, то есть, получается что я дал заявку на удаление всего сайта :D
Так что будьте бдительны, удаляя страницы через WMT.
Кстати, недавно понадобилось удалить сайт из поиска, подал заявку через WMT - на следующий день сайта в поиске уже небыло.
Да сих пор не могу понять от куда бот находит ссылки на такие страницы как /?cat=60 и /?cat=-1 в моем любимом WP, по всей видимости виноваты плагины.
В общем, закрываю в robots.txt эти несуразные проявления.
спасибо за совет, но мне кажется, при подобном использовании robots.txt вы не совсем рационально используете ваши внутренние seo ресурсы, то что закрыто роботом все потеряно, лучше использовать другой метод
В голове не укладывается. Если сервер отдает 404 Not Found, то такой страницы просто нет.
спасибо за совет, но мне кажется, при подобном использовании robots.txt вы не совсем рационально используете ваши внутренние seo ресурсы, то что закрыто роботом все потеряно, лучше использовать другой метод
спасибо за намек, лишнего не закроем))
Z-Style добавил 05.12.2010 в 17:30
В голове не укладывается. Если сервер отдает 404 Not Found, то такой страницы просто нет.
для WMT достаточно ссылки на несуществующую страницу чтобы отобразить ее в ошибках сканирования
А в чем смысл удаления несуществующих страниц?
Ведь если страница отдает 404-ю ошибку, гугл сам через некоторое время должен ее выкинуть из базы. Разве не так?
Страницу как сайт - это как?
но мне кажется, при подобном использовании robots.txt вы не совсем рационально используете ваши внутренние seo ресурсы, то что закрыто роботом все потеряно, лучше использовать другой метод
ТС, всё правильно задумал. Нужно закрыть всё лишнее, во избежание дублей.
ссылка вида /?cat=60 - это ссылка на категорию с ИД=60. Если включён ЧПУ то правильная ссылка будет ЧПУ-шная, а это лишь её дубль.
ТС, всё правильно задумал. Нужно закрыть всё лишнее, во избежание дублей.
ссылка вида /?cat=60 - это ссылка на категорию с ИД=60. Если включён ЧПУ то правильная ссылка будет ЧПУ-шная, а это лишь её дубль.
откуда у вас вылезло это "нужно"? ))
никто ж не спорит с задумкой, мною было предложено сменить реализацию ) судя по всему он правильно понял
откуда у вас вылезло это "нужно"? ))
Я выше по русски вроде написал.. (ключевое слово - дубли)
Я выше по русски вроде написал.. (ключевое слово - дубли)
Дубли чего? я чето нифига не пойму.. вы это определяете через вебмастера гуглтул? Кэшированая страница определяется как 404 нот фаунд? а если перейти по адресу страницы? Так это глюки вордпреса или гугла.. или афтара сайта? И кто такой WMT ???!11🤪
Дубли чего? я чето нифига не пойму.
Дубли страниц, контента.
И кто такой WMT
ВебМастерТоол наверное ;)