Скрытие ссылок от индексации

12 3
Keal
На сайте с 24.05.2007
Offline
129
6284

Собственно, сабж. Тема старая.

Смысл этого действа: на сайте производителя есть большое количество страниц под каждого дилера, но на них никакие запросы не посадишь, более того с каждой страницы идет внешняя ссылка на сайт дилера. В итоге имеем стопицот не нужных для SEO страниц, но нужных заказчику.

Понятное дело, что если просто закрыть всё в robots, то вес утекает вникуда, утекает на заблокированную страницу, более того гугл всё равно пытается эту страницу проиндексировать, но не может, в итоге она появляется в сниппете, но контент не доступен гуглботу.

Вопрос 1: Не даст ли гугл по шапке за скрытие ссылок с помощью js или ajax?

Вопрос 2: В статье был рассмотрен метод с помощью AJAX, который выглядит так:

Выглядит круто, и гугл наврядли распознает эти кракозябрики. Только вот непонятно как такое сделать. Подскажите кто шарит в AJAX'е, каким методом это сделано?

Продвижение в Яндекс и Google, сайты услуг/интернет магазины. Аудит сайта от 5000 руб. Skype: wskeal
Ninoi
На сайте с 03.08.2017
Offline
186
#1

Ссылки в формате Base64, только бесполезно это. Google уже давно распознает эти кракозябрики и скрипты, ему браузеры стучат. У Алаева была подобная темка о скриптах для скрытия ссылок

Keal
На сайте с 24.05.2007
Offline
129
#2
Ninoi:
Ссылки в формате Base64, только бесполезно это. Google уже давно распознает эти кракозябрики и скрипты, ему браузеры стучат. У Алаева была подобная темка о скриптах для скрытия ссылок, погугли :)

Может быть и распознает, и браузеры стучат, но станет ли он индексировать новую страницу, ссылка на которую будет стоять именно таким методом, при том условии, что нигде больше ссылка на эту страницу не фигурирует (ни в сайтмапе, ни с других сайтов) и т.д. Если не станет, то есть pagerank не перетекает на страницу, то и фиг с тем, что гугл о существовании этой страницы знает через браузер, лишь бы вес на них не переливал, а сливал его на те страницы, которые в коде выглядят как нормальный <a href="">

---------- Добавлено 18.02.2018 в 21:31 ----------

P.S. Богоносец, Бурундук, подключайтесь :) Без вас никак тут))

SmileP
На сайте с 18.02.2010
Offline
386
#3
Keal:
что нигде больше ссылка на эту страницу не фигурирует (ни в сайтмапе, ни с других сайтов) и т.д.

Добавлю условия: если нет данных по визитам в ГА, потенциально с Хрома.

S
На сайте с 25.12.2003
Offline
173
#4

Это лютый садомазо в 2018 году высчитывать переливание PageRank :)

1. Если религия не позволяет rel="nofollow", то ссылки можно сделать через <div data-href=""


<div class="href" data-href="/сцылку-можно-не-прятать-никто-не-сольет-pagerank.html">Текст ссылки</div>
<script>
$(".href").click(function(e){
e.preventDefault();
window.location.href = $(this).attr('data-href');
return false;
});
</script>

2. На ненужных страницах прописать в <head>

<meta name="robots" content="noindex, nofollow, noarchive" />

Гугл никогда не покажет их "запрещен в robots.txt".

Красивые сниппеты Google ( https://saney.com/tools/google-snippets-generator.html )
Keal
На сайте с 24.05.2007
Offline
129
#5
Saney:
Это лютый садомазо в 2018 году высчитывать переливание PageRank :)

Уже ни раз замечал такую штуку, когда допустим на сайте имеется 2000 страниц. А затем заказчик решил добавить еще какие-то страницы: под дилеров, под точки выдачи, под станцию метро или еще что-то. Но если на эти страницы никак не получается посадить семантику, которая имеет хоть какой-то спрос (в данном случае если спрашивают по станции метро, то конечно в таких страницах есть смысл, а если по метро запросов ни в яндексе ни в гугл нет?), то получается, что в индекс добавляется еще 1000 страниц, которые в общей сложности приносят 0 (или около нуля) трафа из поиска. То в таком случае, вес с тех полезных страниц, растекается по новым созданным страницам, и позиции по тем страницам проседают. Поэтому, если хочется увеличить объем сайта, то либо это нужно сопровождать увеличением внешнего ссылок, либо делать так, чтоб пользователь мог видеть эти ссылки, а поисковик (в частности гугл) не мог, либо уговорить заказчика не плодить эти новые страницы.

Saney:
1. Если религия не позволяет rel="nofollow", то ссылки можно сделать через <div data-href=""

<div class="href" data-href="/сцылку-можно-не-прятать-никто-не-сольет-pagerank.html">Текст ссылки</div>
<script>
$(".href").click(function(e){
e.preventDefault();
window.location.href = $(this).attr('data-href');
return false;
});
</script>

Nofollow позволяет только не индексировать страницу, но вес по таким ссылкам утекает вникуда, как в примере с закрытием в robots

Saney:
2. На ненужных страницах прописать в <head>
<meta name="robots" content="noindex, nofollow, noarchive" />

Гугл никогда не покажет их "запрещен в robots.txt".

Если уж и делать так, то делать через <meta name="robots" content="noindex, follow" />, чтобы дать возможность перетакания веса по ссылкам у неиндексируемой страницы. Но сами гугловцы говорят, что если страница долгое время находится в <meta name="robots" content="noindex, follow" />, то вскоре они и follow параметр не будут учитывать, то есть вес перетекать не будет.

Если вы считаете, что PageRank в 2018-ом не существует и это всё "фигня" и более неактуально, то это тема другого разговора в принципе, но мой опыт показывает, что не "фигня". Да, эта тема не работает на сайтах услуг до 100 страниц, но на интернет-магазинах с многотысячным индексом работает, и даже игра с отображаемым количеством страниц пагинаций (или количеством отображаемых товаров на странице), может нормально так подрезать или увеличить трафик, не сразу конечно, а по мере переиндексации всего сайта.

---------- Добавлено 18.02.2018 в 23:00 ----------

SmileP:
Добавлю условия: если нет данных по визитам в ГА, потенциально с Хрома.

У меня нет кейсов на эту тему, то есть если я создам страницу на домене, но не поставлю с других страниц на нее ссылки (и не закину ее в сайтмап), но буду заходить на неё сам из хрома (или скину в аське вам, чтобы вы тоже зашли из хрома), чтобы якобы через гугл через браузер спалил о существовании этой страницы, то я не замечал такого, чтоб эта страница влетала в индекс сама, без ссылок, без сайтмапа, без принудительного добавления через Search Console или Add Url.

Александр
На сайте с 17.07.2009
Offline
371
#6

Если страница мусорная, то зачем её в индекс загонять?

Сайты на WordPress тут просто летают! (https://vk.cc/atAGUU)
[Удален]
#7

Keal, обратитесь к первоисточнику http://www.unmedia.ru/sokrytie-ssylok.html

учтите, если url есть в html коде - он проиндексируется, за единственным исключением

фрагмент кода закрыт в комментарий <!-- -->

Keal
На сайте с 24.05.2007
Offline
129
#8
aleksandrbol:
Если страница мусорная, то зачем её в индекс загонять?

Она не мусорная, она полезная для пользователей. На ней находится адрес точки выдачи, телефон, время работы (пару строк текста, как вы понимаете), и yandex карта вставлена с отметкой этой точки выдачи. Но никакую семантику на такую страницу не посадить, ведь никто не ищет: "Точки выдачи розовых слонов в Мегионе".

Но так как дилерская сеть по стране очень большая, то и точек выдачи очень много получается. И судя по плавному падению трафика (и позиций) с основных категорий и карточек товара, то вижу проблему в перетекании веса.

[Удален]
#9
Keal:
На ней находится адрес точки выдачи, телефон, время работы (пару строк текста, как вы понимаете), и yandex карта вставлена с отметкой этой точки выдачи. Но никакую семантику на такую страницу не посадить, ведь никто не ищет: "Точки выдачи розовых слонов в Мегионе".

сделайте всего 1 страницу (со статическим url), которая будет формироваться за запросу пользователя

S
На сайте с 25.12.2003
Offline
173
#10

Че-то вспомнился Уральский "Почему ты не отвечаешь на мой ответ?" 😂

https://youtu.be/BsjAzOGe0cI?t=540

12 3

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий