Минусовых люлей на странице это ладно, они все равно трафик не привлекают, лишь бы не на весь сайт :)
Были случаи по минусовым люлям? Ведь по сути это не клоакинг, гугл видит текст ссылки, гугл видит код, браузер юзера видит текст и видит код. Всё честно, вроде)
да там такая сложная система, запиленная разрабами, что боюсь на перепиливание понадобится намного больше часов ($), чем на скрытие этих ссылок от индексации.
Она не мусорная, она полезная для пользователей. На ней находится адрес точки выдачи, телефон, время работы (пару строк текста, как вы понимаете), и yandex карта вставлена с отметкой этой точки выдачи. Но никакую семантику на такую страницу не посадить, ведь никто не ищет: "Точки выдачи розовых слонов в Мегионе".
Но так как дилерская сеть по стране очень большая, то и точек выдачи очень много получается. И судя по плавному падению трафика (и позиций) с основных категорий и карточек товара, то вижу проблему в перетекании веса.
Уже ни раз замечал такую штуку, когда допустим на сайте имеется 2000 страниц. А затем заказчик решил добавить еще какие-то страницы: под дилеров, под точки выдачи, под станцию метро или еще что-то. Но если на эти страницы никак не получается посадить семантику, которая имеет хоть какой-то спрос (в данном случае если спрашивают по станции метро, то конечно в таких страницах есть смысл, а если по метро запросов ни в яндексе ни в гугл нет?), то получается, что в индекс добавляется еще 1000 страниц, которые в общей сложности приносят 0 (или около нуля) трафа из поиска. То в таком случае, вес с тех полезных страниц, растекается по новым созданным страницам, и позиции по тем страницам проседают. Поэтому, если хочется увеличить объем сайта, то либо это нужно сопровождать увеличением внешнего ссылок, либо делать так, чтоб пользователь мог видеть эти ссылки, а поисковик (в частности гугл) не мог, либо уговорить заказчика не плодить эти новые страницы.
<div class="href" data-href="/сцылку-можно-не-прятать-никто-не-сольет-pagerank.html">Текст ссылки</div><script>$(".href").click(function(e){ e.preventDefault(); window.location.href = $(this).attr('data-href'); return false;});</script>
Nofollow позволяет только не индексировать страницу, но вес по таким ссылкам утекает вникуда, как в примере с закрытием в robots
<meta name="robots" content="noindex, nofollow, noarchive" />
Если уж и делать так, то делать через <meta name="robots" content="noindex, follow" />, чтобы дать возможность перетакания веса по ссылкам у неиндексируемой страницы. Но сами гугловцы говорят, что если страница долгое время находится в <meta name="robots" content="noindex, follow" />, то вскоре они и follow параметр не будут учитывать, то есть вес перетекать не будет.
Если вы считаете, что PageRank в 2018-ом не существует и это всё "фигня" и более неактуально, то это тема другого разговора в принципе, но мой опыт показывает, что не "фигня". Да, эта тема не работает на сайтах услуг до 100 страниц, но на интернет-магазинах с многотысячным индексом работает, и даже игра с отображаемым количеством страниц пагинаций (или количеством отображаемых товаров на странице), может нормально так подрезать или увеличить трафик, не сразу конечно, а по мере переиндексации всего сайта.---------- Добавлено 18.02.2018 в 23:00 ----------
У меня нет кейсов на эту тему, то есть если я создам страницу на домене, но не поставлю с других страниц на нее ссылки (и не закину ее в сайтмап), но буду заходить на неё сам из хрома (или скину в аське вам, чтобы вы тоже зашли из хрома), чтобы якобы через гугл через браузер спалил о существовании этой страницы, то я не замечал такого, чтоб эта страница влетала в индекс сама, без ссылок, без сайтмапа, без принудительного добавления через Search Console или Add Url.
Может быть и распознает, и браузеры стучат, но станет ли он индексировать новую страницу, ссылка на которую будет стоять именно таким методом, при том условии, что нигде больше ссылка на эту страницу не фигурирует (ни в сайтмапе, ни с других сайтов) и т.д. Если не станет, то есть pagerank не перетекает на страницу, то и фиг с тем, что гугл о существовании этой страницы знает через браузер, лишь бы вес на них не переливал, а сливал его на те страницы, которые в коде выглядят как нормальный <a href=""> ---------- Добавлено 18.02.2018 в 21:31 ---------- P.S. Богоносец, Бурундук, подключайтесь :) Без вас никак тут))
Кто-то делал и так, а кто-то мануалы писал о том, как покупать на сапе используя гуглпереводчик и пополнить баланс, используя Webmoney.
А вот здесь мануал от небезызвестного западного сео гуру, как иностранцам покупать "крутые трастовые ссылки с СМИ за недорого" используя Миралинкс:
https://www.matthewwoodward.co.uk/tutorials/russian-newspaper-links/
И ведь правда, сопоставимого по ссылочным метрикам сайта, который можно купить в миралинксе за 3-5 тысяч рублей, на западе просто не найти.
Там на западе с рынком ссылок вообще какая-то дичь, мне недавно какой-то чудак пытался продать ссылку с vk.com за $50 (nofollow, понятное дело), трастовая, говорит, площадка, смотри какой Domain Authority, лол. Он видимо не знал, что я русский, и знаю что эта ссылка ничего не стоит.
Так что биржи, с таким богатым функционалом как Sape и Miralinks, как ни крути, приводят ценообразование на рынке в порядок. Подобный разводняк там не прокатит.
Ты ошибаешься, SAPE давно вышла на рынок BlackHat SEO на западе. Но как только Мэтт Катс в своё время узнал об этом, то по всей видимости просто спарсили базу, и побанили большинство сайтов, которые закупались на Eng площадках. И об этом раструбили на форуме blackhatworld и поэтому даже самые отчаянные (индусы) сеошники, побаиваются пользоваться сапой.
Рунет для гугла не приоритетный, видимо поэтому пока еще сайты рунета не наказываются за покупку ссылок на этих биржах. Хотя по факту, можно спарсить базы за один день со всех бирж, и прислать всем ярым покупателям "Ручные санкции за ссылки". Даже тем, кто платит за "нормальные" ссылки в миралинксе по 2-3к рублей за ссылку. Когда-нибудь это случится, я думаю, пока не до этого им, видимо. И тогда весь рунет переключится на PBN, как это происходит на западе сейчас, ну либо "аутрич" - ручное размещение по договоренности с вебмастером за 100500 денег.
Конкретно эта статья - уг. И приписка 2018 просто так, а новой инфы никакой нет.
Но есть на западе и интересные экспериментаторы, которые пытаются рассмотреть всё более глупо, если касаемо PageRank и переливания веса, то например, такую штуку как положение ссылки на странице (в коде). Согласно патенту гугла, чем ниже ссылка, тем меньше передается PageRank.
Также здесь не рассмотрен момент, например если мы ссылаемся на одну и ту же страницу три раза в коде (в меню, в статье, в футере), что происходит с PageRank? Он равномерно делится между этими тремя ссылками? Или неравномерно? Или учитывается только самая верхняя, а остальные, которые мы ставим, это лишнее разбазаривание PageRanka?
А что происходит когда внутри сайта создаются дубли страниц, а затем удаляются самим гуглом, присваивается ли вес, который ушел на дублирующую страницу, основной странице (после удаления дублирующейся страницы из выдачи). Или, если мы не поставили canonical, то не присваивается? И вес утекает вникуда?
А что происходит когда страница ссылается сама на себя? Так называемые циклические ссылки, сама страница на себя же вес передать не может? Следовательно три раза сославшись на саму себя мы "проливаем" pagerank в никуда, то есть теряем, но не получаем? Или всё же Google понимает, что из-за особенностей разных CMS, это может случаться, иногда страница дважды ссылается на саму себя (в меню, в хлебных крошках, еще где-то), а иногда и 10 раз на саму себя. Так вот, согласно теории pagerank, ссылаться трижды на саму себя, или 10 раз на саму себя, это две большие разницы.
P.S. а статья ниочем, можно было не тратить время на перевод.
Может и понизится, а может и вырастет :)
С позиции поисковиков, по моему опыту, они учитывают всё: и хлебные крошки, и менюшки, и футеры, и даже всплывающие блоки.
То есть иными словами, если у вас фраза "розовые слоны" в главном меню, в футере, в каком-то всплывающем блоке, в каком-нибудь сайдбаре, в хлебных крошках, в <h1>, то переборщить с вхождениями в тексте намного легче, чем, допустим, если бы этих "розовые слоны" не было бы в футере и в сплывающем блоке (и сайдбаре), а только в главном меню. В таком случае в тексте я бы вообще не употреблял ни разу "розовые слоны", ведь <h1> хватает пользователю, для того чтобы понять о чем статья.
На самом деле это конечно глупо, ведь даже не SEO копирайтер, а просто журналист без навыков сео, наверняка захотел бы употребить пару раз фразу "розовые слоны" в тексте. Но даже написав хорошую статью о розовых слонах, есть все риски улететь в Б-Б. Это по Яндексу..
По Гуглу проще, он более топорный и иногда даже любит переспамчик, ну это в рунете, в US там по-другому всё, только намёк на переспам и ты за топ100 :)