Vladimir

Vladimir
Рейтинг
626
Регистрация
07.06.2004
Интересы
Photo
Александр #:
Вот как их сейчас находят-то?
по домену
alaev #:

Правда это пока не коснулось сайтов, которые закрыты от индексации.

Делаем выводы 🤣

Вывод: Срочно закрыть от индексации?))

Александр #:

Так и написали? :D
Или это какой-то частный случай?

Частный, в этом случае вопросов больше задаваться не будет, значит и ответ выдан в полном обьеме))

Sultan #:

как можно реализовать это для вордпресс сайта?

Wp делает редирект

Погуглить remove_post_pagination
Найти функцию которая делает не редирект, а отдает 404


если сходу примерно такое, проверять!!!

add_filter( 'pre_handle_404', 'remove_single_post_pagination', 10, 2 ); function remove_single_post_pagination( $false, $wp_query ) { if ( is_singular() && get_query_var( 'page' ) ) { $wp_query->set_404(); status_header( 404 ); nocache_headers(); return 'stop'; } return $false; }
poruchick #:
А не оператор ли какой-то? Типа 1000 записей на страницу? Хотя, через /... При переходе на страницу отображается каноническая?
Sultan #:

Да именно так

При переходе по ссылке:
- отображется каноническая
- или редирект на каноническую?
Это разные вещи, в первом случае дубли, но и во втором  случае 301  тоже ничего хорошего
Поэтому, по любым ссылкам на страницы, которых нет на сайте - ответ должен быть 404

Все остальное советы от школьников


Sultan #:

тем более поисковик уже несколько лет сломан

Так а зачем вы его ломаете? Уменьшите использование Краулингового бюджета на 90 - 99%, и будет все норм ( не скорости, а именно лимита)

Asket360 :

Есть ли какая-то разница между этими подходами?

Ни первый, ни второй - нет разницы...третий подход генерите)

Lastwarrior #:
В любом случае контенту сайту нужно придать уникальность и полезность в глазах поисковиков, иначе они не будут индексить контент. Зачем, если это копия десятой копии того, что уже есть давно в индексе?
Все индексит, даже если это тысячная копия и все есть в индексе.
Т.е мантра, о том зачем индексировать если все есть, для ленивых
minsky #:
Google indexing api в помощь
Когда вы уж научитесь индексировать без indexing api?))
Валентина #:

-  У меня, к примеру, все образовательные сайты, где контент создавался учителями и прочими причастными, упали в ноль.

- Сейчас подумываю в сторону создания плагина на Вордпресс для автогенерации GPT, сегодняшний Яндекс будет в восторге от такого шлака, уверена) Они есть, но платные. 

Стесняюсь спросить: зачем вам сайт созданный плагином?

Валентина #:
можно сказать в никуда высказывались, то может и поиск уже был бы значительно лучше!

Яндекс и поиск несовместимы🤣 У яндекса все направлено для борьбы с вебмастерами, вводят все новые и новые правила и алгоритмы, ломают и восстанавливают и тд но все против создателей сайтов....поиск как то давно ушел на задний план

Но и сами вебмастера тоже, как видите, если не получается с сайтом, начинают гнать шлак плагинами, накручивать ботов и ПФ ботами и тд.

manderson #:

Недавно реализовывал карту 410 редиректов для более чем 1000 удалённых страниц через nginx. Могу сказать, что смысл советов по установке 410 кодов заключается в более быстром удалении страниц из поисковых систем, что в свою очередь позволяет сэкономить краулинговый бюджет.

Краулинговый бюджет экономится технически на сайте до 90%

Osmxnxn :

чтобы он пересканировал эти 404 и понял что там теперь 410. Или так делать не стоит, так как он проверяет конкретно появились ли там страницы?

Сайт должен отдавать 404, на этом все.
Все остальное техническая неграмотность, особенно про бюджет, при ответе сервера 404.
Бюджет нужно экономить, когда у вас ответ 200, т.е когда отдается страница

Станислав :

На английской версии

Оставьте две страницы, отдавайте по языку

<link rel="canonical" href="https://site.ru/кофе/">

На английской версии

<link rel="canonical" href="https://site.ru/coffee/">

Главную, можно вообще сделать сразу на 2х языках, так чтобы оба языка ( страицы) были в индексе

PS Не плодите дубли

Всего: 9108