- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как удалить все устаревшие, несуществующие ссылки из раздела "Не найдено" в google webmaster?
У меня там 1500 не найденных ссылок, удалять все вручную, я так помру быстрее :)
Я так понимаю, что с добавлением в robots.txt поможет парсер, который выберет все ссылки, оставит каталоги и подставит disallow, но ведь чтобы ссылки пропали из раздела "Не найдено", их надо удалить через опцию удаления в самом webmaster аккаунте, а там принимает, только по одной ссылке за раз.
Как быть? :smoke:
Я понимаю, что Google не ссылки не нашел, а страницы. Пофиксите свой движок так, чтобы он отдавал 404 на несуществующих страницах и, естественно, чтобы на них не ссылались другие страницы. Если ссылки с других страниц останутся, то robots.txt не поможет.
В том же WT можно посмотреть откуда ссылаются на эти 404 ссылки.
Как удалить все устаревшие, несуществующие ссылки из раздела "Не найдено" в google webmaster?
неоднократно сталкивался с глюками гугла, когда в ВМ показывает "битые" ссылки. Вручную их чекал - страницы есть...
ТС, вы проверьте выборочно: на самом ли деле страниц не существует? Просто мое мнение, что кол-во 404-х зависит от того, насколько "удачно" робот обошел сайт. Ибо у меня то появляются ошибки, то исчезают. И это при том, что многие прогеры и оптимизаторы, видевшие мой сайт говорят про простоту кода и потрясную скорость загрузки. Может просто у Вас хостер "лагал" или движок "тяжелый" и серв хоста "не потянул загрузку" при очередном опросе паука?
Ссылки были, просто меняли навигацию на сайте и старые ссылки на эти страницы остались в индексе.
Только вот удаляются они что-то уж совсем медленно. В ручную в WT указал удаление всех каталогов, а google и в ус не дул.
Главное, что скушал заявки на удаление, а подстраницы указанных каталогов все еще отображаются в WT...
Как с этим бороться? Я уже предполагаю, что из-за этого у меня на сайте снова PR 0.
Идиотизм... Вот меня раздражают подобные выходки со стороны google... Полный пофигизм...
Никаких сообщений тебе, никаких предупреждений, то все ссылки пропадают из WT, то page rank 0.
Чет нынче google совсем не торт...
Путь 1. Настроить редирект с несуществующих страниц на главную
Путь 2. В роботс.тхт написать disalow: /page
page - то, с чего начинается ваша страница.
Путь первый лучше, когда ПС опять перейдет на эту страницу, его перекинут на главную, в результате он отпросит данную страницу.
У меня таже хрень с этмим ошибками.
Есть ссылки вида хттп://ввв.сайт.од.уа/product/detail/5000/49/index.html
Google постоянно определяет их как хттп://ввв.сайт.од.уа/product/detail/5000/49/ т.е. обрезает index.html ну и естественно 404. Когда в панельке удаляю из кэша вот эту страничку хттп://ввв.сайт.од.уа/product/detail/5000/49/ то он удаляет и эту и с index.html. Может кто то подскажет что не так. Спасибо.
Когда вы запрашиваете у сервера
хттп://ввв.сайт.од.уа/product/detail/5000/49/,
то он вам отдает индексную страницу (если он не настроен по-другому):
хттп://ввв.сайт.од.уа/product/detail/5000/49/index.html
Уберите все ссылки с "index.html".
А после удаления страницы через панель, то вместо того, чтобы теперь полгода ждать, измените URL этих страниц.
Page rank 0, класс :)
Можно ли из-за 1500 несуществующих ссылок попасть в бан, если они возвращают 404 и их каталоги добавлены в robots.txt?
И куда теперь писать?
В бан — нет. А опустить в выдаче должен, ибо такая ситуация говорит о низком качестве сайта. Выход один: избавиться от ссылок, ведущих на страницы с 404.