- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет! После того как Google перестал обращать внимание на файл robots.txt в индекс залетело много страницы формата "url/ ?replytocom=193862". Это ссылки которые WordPress генерирует для кнопки "Ответить на комментарий". На этих страницах прописан canonical на основную статью.
Я убрал запрет на индексацию в robots.txt и добавил на эти страницы noindex. Понятно, что сильно выросло число страниц с тегом noindex в GSC. Пока с 7к до 20к. Что, как мне кажется, не очень хорошо.
Вопрос в том, что с ними делать? Вижу такие варианты:
Webcraftic Clearfy - SEO - Дубли страниц - Удалить ?replytocom
Спасибо. Не хотелось бы использовать отдельный плагин для этого.
3 вариант
И что делать с теми страницами, которые Google уже увидел?
3 вариант
ничего - 404 или 410Уйдет в отчет "Ложная ошибка 404", что не очень хорошо.
Я в noindex отправил, и открыл доступ в robots.txt, как это рекомендовано Гуглом. Но по сути это глюк, который появился после август-сентябрьского АПа ядра.
Уйдет в отчет "Ложная ошибка 404"
что не очень хорошо.
чем именно ?
Я в noindex отправил, и открыл доступ в robots.txt, как это рекомендовано Гуглом
почему в софт 404 ?
чем именно ?
ну так 20к страниц теперь в обходе и на них расход квоты идет (Ну потому что наличие на странице ссылки, на страницу которая отдает 404, это не очень хорошо, я думаю все согласятся что на страницах не должно быть битых ссылок. А Гугл теперь год будет переобходить все те страницы, на которых он увидел ссылки на коментарии такого рода.
20к страниц уже в обходе, и на них уже квота идет.
Как по мне, то правильней не показать Гуглу что у тебя куча битых ссылок, а именно показать, что страница существует, но ты не хочешь чтобы Гугл ее индексировал, тем более сам Гугл именно это рекомендует сделать.
Ну потому что наличие на странице ссылки, на страницу которая отдает 404, это не очень хорошо, я думаю все согласятся что на страницах не должно быть битых ссылок. А Гугл теперь год будет переобходить все те страницы, на которых он увидел ссылки на коментарии такого рода.
а кто говорит что оставить ссылку на 404 ? и главное зачем ее оставлять ? естественно в третьем варианте допилить вп надо не только что бы не генерил страницы - но и ссылки на них. Мало того их и в коде не должно быть не только в видимой части сайта.
20к страниц уже в обходе, и на них уже квота идет.
ну да вместо нормальных страниц
а именно показать, что страница существует,
я показываю что не сущесвует и все ок
видимо Хром стучит.
а кто говорит что оставить ссылку на 404 ? и главное зачем ее оставлять ? естественно в третьем варианте допилить вп надо не только что бы не генерил страницы - но и ссылки на них. Мало того их и в коде не должно быть не только в видимой части сайта.
Ты представляешь сколько Гугл будет пересканировать все эти страницы, которые он просканировал со ссылкой на replytocom=ххххххх, учитывая что там номера уже шестизначные? Он все эти ссылки видел, просто учитывал robots.txt и не пытался их взять в индекс. Теперь, на то чтобы убедить Гугл что таких ссылок на сайте нет, уйдут годы. Ну тоесть на 20% хорошо посешаемых страниц, он пересканирует за месяц, а на остальных 80% низкопосещаемых, будет висеть годами, уходя по 100 страниц в неделю. И все эти годы Гугл будет считать что у тебя куча страниц с битыми ссылками.
Ты представляешь сколько Гугл будет пересканировать все эти страницы, которые он просканировал со ссылкой на replytocom=ххххххх, учитывая что там номера уже шестизначные? Он все эти ссылки видел, просто учитывал robots.txt и не пытался их взять в индекс. Теперь, на то чтобы убедить Гугл что таких ссылок на сайте нет, уйдут годы. Ну тоесть на 20% хорошо посешаемых страниц, он пересканирует за месяц, а на остальных 80% низкопосещаемых, будет висеть годами, уходя по 100 страниц в неделю. И все эти годы Гугл будет считать что у тебя куча страниц с битыми ссылками.
какая разница сколько он будет пересканировать - страниц нет, ссылок на них нет, тут нету софт 404. Отдаем 410 и все, пусть себе сканирует. Главное сайт допилить нормально.
ТС же сказал что рост с 7к до 20к в ноиндексе. Квота уходит, сайт недопилен. Данных кстати о посещаемости страниц с ссылками на коменты ТС не давал.