- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
404 ошибку дают страницы, которых нет. Или Вы думаете, что где-то срабатывает php-ый хэдер: header("HTTP/1.0 404 Not Found")? Сомневаюсь.
И как интересно можно решить эту проблему в выдаче Гугла?
Да, конечно, можно через инструменты веб-мастера Гугла удалить страницу из индекса и кэша, но ведь такое удаление временное и затем она снова появляется. Гугл советует, не обращать на такие ошибки внимание, так как со временем они сами пропадут. Автору темы, дал для этого ссылку, где авторитетный источник все это расписал подробно. Единственное что ему можно посоветовать, это отдавать 404 ошибку с несуществующих страниц и делать рефреш, например, на главную.
А Вы сразу- "неправы" и бегом минусы ставить.
Вы дали совет полностью игнорировать, при чем из "авторитетного источника" выбросить слова, которые не нравятся, потому что ТОЧНО не влияют. Я уточнила, что этого делать нельзя, потому что бывают ситуации, когда 404 влияют на выдачу. Прочтите внимательно, потом спорьте.
потому что бывают ситуации, когда 404 влияют на выдачу
Вы знаете, в этом вопросе я больше Гуглу доверяю, чем Вам!
Вы знаете, в этом вопросе я больше Гуглу доверяю, чем Вам!
Правильно, и вам написали - "обычно не влияют", следовательно, бывает и так, что влияют. Если удалена случайно сотня страниц - они, по-вашему, останутся в выдаче и будут давать трафик? Вы же почему-то рекомендуете полностью игнорировать.
Спор продолжать не вижу смысла. Всего хорошего.
Если удалена случайно сотня страниц - они, по-вашему, останутся в выдаче и будут давать трафик? Вы же почему-то рекомендуете полностью игнорировать.
Но ведь вопрос был не в том, что "случайно удалена сотня страниц"...
Спор продолжать не вижу смысла. Всего хорошего.
---------- Добавлено 05.12.2013 в 00:29 ----------
revered, Вот еще немного информации отсюда: https://sites.google.com/site/webmasterhelpforum/ru/faq-20#h.ov2m0ke52wis
Вопрос: На странице с ошибками сканирования отображаются ошибки "404 не найдено" для несуществующих URL адресов моего сайта. В чем причина?
Ответ:
Вполне возможно, что эти URL отображены неверно в виде ссылок на вашем сайте (например это опечатка) или это устаревшая ссылка с другого сайта. Робот Google пытался пройти по несуществующей ссылке, для которой веб-сервер вернул код статуса "404 страница не найдена". Если эти URL вам незнакомы и вы не считаете, что они должны быть доступны, эти ошибки можно просто игнорировать. В противном случае, мы надеемся, что вам пригодится дополнительная информация в колонке "Подробнее".
Для быстрого решения проблемы можно настроить сервер таким образом, чтобы некорректные или устаревшие URL ьперенаправлялись на правильные URL с кодом статуса "301 окончательное перемещение". Хочется подчеркнуть что запрос на удаление несуществующих URL не решит проблему, так как инструмент удаления URL-адреса удаляет URL из результатов поиска Google, но не удаляет ошибки в панели инструментов веб-мастеров.
Вопрос: Я поправил все ссылки указывающие на страницы возвращающие ошибку 404. Когда же эти ошибки исчезнут из панели инструментов для веб-мастеров?
Ответ:
Со временем эти ошибки исчезнут сами по себе, так как мы перестаем индексировать страницы постоянно возвращающие ошибку 404. Не беспокойтесь об ошибках в закладке с информацией о сканировании, если дата обнаружения ошибок остается неизменной.
Сотню страниц я привела вам для примера.
И у ТС как раз привел страницы, которые были на сайте, как показывает кеш гугла, но потом были удалены и закрыты в роботс:
https://www.google.ru/#newwindow=1&q=%22http:%2F%2Fkak-prosto-pohudet.ru%2Fkategoriya%2Fpohudenie-category%2Ftabletki-i-preparatyi-dlya-pohudeniya%22
Он, видимо, и не знал об этом. А Вы, видимо, не заметили этого в теме :)
Об этом и писала - проверить, а потом решить, игнорировать или нет, а не просто категорически игнорировать, как вы советовали.
Тоже верно, если на форуме, например, поставили ссылку, скопировав ее не полностью (без html, например), трафик идет, утыкается в 404 - нужно ставить 301. Но суть та же - проверить, а потом решать, что делать.
Верно, бывает, что такие страницы нужно реально удалить их кеша, где они мешают, а не из WMT - там они никому не мешают.
Тут все на ТСа набросились. А что скажете про это? Зачеркнуты реальные ошибки. А вот остальное я боюсь представить откуда он нашел. Такой конструкции url не то что на сайте, на домене никогда не было, а последнее вообще добило. В принципе мне плевать, в Гугл меня нет и не будет. Это все мелочи, гугл как то мне субдомен приписал и поставил в выдачу.
А вот остальное я боюсь представить откуда он нашел.
Результаты работы алгоритмов Гугла, наверное, не могут понять даже их разработчики. Такое впечатление, что там работают противоборствующие друг с другом команды, которые пишут свои скрипты с возможностью насолить скриптам другой команды.
Все бы было почти нормально, если бы такое только мы видели. Но иногда появляются умные заказчики с требованием исправить глюк ))))
Если на эти страницы с серпа идет траф, то это уже проблема. Со временем выпадут из индекса, на слабых сайтах это может занять довольно много времени.
Нагоните бота, пусть прочекает ваш сайт снова и снова, пока они все не появятся в WMT. Если не терпится, там же есть тулза по удалению урлов, составьте список и вперед.
И убедитесь, что в robots к ним есть доступ.
Нагоните бота
А можете подсказать, где его взять?
А можете подсказать, где его взять?
WMT > Сканирование > Просмотреть как Googlebot