- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, подскажите пожалуйста у меня в гугле при сканировании сайта на ошибки, выдает несколько сотен подобных с feed
Скажите пожалуйста как правильно нужно указать строчку в файле роботс что бы гугл не индексировал эти хвосты и не выдавал ошибки
Disallow: */*/feed/*/
или
Disallow: */*/feed/
или
Disallow: */*/feed
Спасибо
Disallow: */feed/
Этим мы говорим роботу, что какая бы папка не встречалась, после которой будет /feed/, нужно её закрывать.
Пример:
site/cat/feed/
site/razdel/feed/
и т.п.
Если у тебя cms какая-то определенная, то ты можешь в интернете найти шаблон robots.txt для определенной cms, а после посмотреть, какие у тебя ошибки и добавить
Disallow: */feed/
Этим мы говорим роботу, что какая бы папка не встречалась, после которой будет /feed/, нужно её закрывать.
Пример:
site/cat/feed/
site/razdel/feed/
и т.п.
Если у тебя cms какая-то определенная, то ты можешь в интернете найти шаблон robots.txt для определенной cms, а после посмотреть, какие у тебя ошибки и добавить
Спасибо.
Эти ошибки как то влияют на ранжирование сайта в выдачи? Или это гугл просто меня уведомляет что "мол вот эти ссылки если вы не в курсе - отсутствуют"?
neznakomec, В большинстве случаев такие страницы являются дублями основных страниц и считаются негативными при продвижении сайта
Cамые распространенные являются
/index.php
/feed
/wp-admin
/admin
/author/
/wp-comments
/wp-login.php
и т.п.
Скажите пожалуйста, а как поступить с такого рода ошибками?
StaroverovMax, попытаться понять, почему они происходят.
почему в урл присутсвуют фрагменты кодировки percent encoding
StaroverovMax, попытаться понять, почему они происходят.
почему в урл присутсвуют фрагменты кодировки percent encoding
По той причине, что ссылки на эти страницы разошлись по интернету, но не везде кодировка оказались правильной..😒
По той причине, что ссылки на эти страницы разошлись по интернету
разве это не скрин внутренних ошибок индексирования?
как правильно нужно указать строчку в файле роботс что бы гугл не индексировал эти хвосты
Никак. Роботс для гугла запрещает только сканировать, а не удалить из индекса.
Может у кого есть ещё идеи, как запретить или правильно редиректить эту фигню с %Fcnt%...?
P.S. Извиняюсь, что в чужом топике, но ведь и смысла нет плодить подобное)
Может у кого есть ещё идеи, как запретить или правильно редиректить эту фигню с %Fcnt%...?
В принципе, проблема в том, что некоторые площадки неправильно обрабатывают символы в урл. Может есть возможность а httpaccess прописать именно замену символов, хотя не уверен, что это возможно..