Keal

Keal
Рейтинг
129
Регистрация
24.05.2007
Ninoi:
Скорее всего индексировать станет, и нечего будет переливать. Google навесит минусовых люлей если не на весь сайт, то на те страницы где будут размещены скриптолинки. Как повезет, тут непредсказуемо

Минусовых люлей на странице это ладно, они все равно трафик не привлекают, лишь бы не на весь сайт :)

Были случаи по минусовым люлям? Ведь по сути это не клоакинг, гугл видит текст ссылки, гугл видит код, браузер юзера видит текст и видит код. Всё честно, вроде)

burunduk:
сделайте всего 1 страницу (со статическим url), которая будет формироваться за запросу пользователя

да там такая сложная система, запиленная разрабами, что боюсь на перепиливание понадобится намного больше часов ($), чем на скрытие этих ссылок от индексации.

aleksandrbol:
Если страница мусорная, то зачем её в индекс загонять?

Она не мусорная, она полезная для пользователей. На ней находится адрес точки выдачи, телефон, время работы (пару строк текста, как вы понимаете), и yandex карта вставлена с отметкой этой точки выдачи. Но никакую семантику на такую страницу не посадить, ведь никто не ищет: "Точки выдачи розовых слонов в Мегионе".

Но так как дилерская сеть по стране очень большая, то и точек выдачи очень много получается. И судя по плавному падению трафика (и позиций) с основных категорий и карточек товара, то вижу проблему в перетекании веса.

Saney:
Это лютый садомазо в 2018 году высчитывать переливание PageRank :)

Уже ни раз замечал такую штуку, когда допустим на сайте имеется 2000 страниц. А затем заказчик решил добавить еще какие-то страницы: под дилеров, под точки выдачи, под станцию метро или еще что-то. Но если на эти страницы никак не получается посадить семантику, которая имеет хоть какой-то спрос (в данном случае если спрашивают по станции метро, то конечно в таких страницах есть смысл, а если по метро запросов ни в яндексе ни в гугл нет?), то получается, что в индекс добавляется еще 1000 страниц, которые в общей сложности приносят 0 (или около нуля) трафа из поиска. То в таком случае, вес с тех полезных страниц, растекается по новым созданным страницам, и позиции по тем страницам проседают. Поэтому, если хочется увеличить объем сайта, то либо это нужно сопровождать увеличением внешнего ссылок, либо делать так, чтоб пользователь мог видеть эти ссылки, а поисковик (в частности гугл) не мог, либо уговорить заказчика не плодить эти новые страницы.

Saney:
1. Если религия не позволяет rel="nofollow", то ссылки можно сделать через <div data-href=""

<div class="href" data-href="/сцылку-можно-не-прятать-никто-не-сольет-pagerank.html">Текст ссылки</div>
<script>
$(".href").click(function(e){
e.preventDefault();
window.location.href = $(this).attr('data-href');
return false;
});
</script>

Nofollow позволяет только не индексировать страницу, но вес по таким ссылкам утекает вникуда, как в примере с закрытием в robots

Saney:
2. На ненужных страницах прописать в <head>
<meta name="robots" content="noindex, nofollow, noarchive" />

Гугл никогда не покажет их "запрещен в robots.txt".

Если уж и делать так, то делать через <meta name="robots" content="noindex, follow" />, чтобы дать возможность перетакания веса по ссылкам у неиндексируемой страницы. Но сами гугловцы говорят, что если страница долгое время находится в <meta name="robots" content="noindex, follow" />, то вскоре они и follow параметр не будут учитывать, то есть вес перетекать не будет.

Если вы считаете, что PageRank в 2018-ом не существует и это всё "фигня" и более неактуально, то это тема другого разговора в принципе, но мой опыт показывает, что не "фигня". Да, эта тема не работает на сайтах услуг до 100 страниц, но на интернет-магазинах с многотысячным индексом работает, и даже игра с отображаемым количеством страниц пагинаций (или количеством отображаемых товаров на странице), может нормально так подрезать или увеличить трафик, не сразу конечно, а по мере переиндексации всего сайта.

---------- Добавлено 18.02.2018 в 23:00 ----------

SmileP:
Добавлю условия: если нет данных по визитам в ГА, потенциально с Хрома.

У меня нет кейсов на эту тему, то есть если я создам страницу на домене, но не поставлю с других страниц на нее ссылки (и не закину ее в сайтмап), но буду заходить на неё сам из хрома (или скину в аське вам, чтобы вы тоже зашли из хрома), чтобы якобы через гугл через браузер спалил о существовании этой страницы, то я не замечал такого, чтоб эта страница влетала в индекс сама, без ссылок, без сайтмапа, без принудительного добавления через Search Console или Add Url.

Ninoi:
Ссылки в формате Base64, только бесполезно это. Google уже давно распознает эти кракозябрики и скрипты, ему браузеры стучат. У Алаева была подобная темка о скриптах для скрытия ссылок, погугли :)

Может быть и распознает, и браузеры стучат, но станет ли он индексировать новую страницу, ссылка на которую будет стоять именно таким методом, при том условии, что нигде больше ссылка на эту страницу не фигурирует (ни в сайтмапе, ни с других сайтов) и т.д. Если не станет, то есть pagerank не перетекает на страницу, то и фиг с тем, что гугл о существовании этой страницы знает через браузер, лишь бы вес на них не переливал, а сливал его на те страницы, которые в коде выглядят как нормальный <a href="">

---------- Добавлено 18.02.2018 в 21:31 ----------

P.S. Богоносец, Бурундук, подключайтесь :) Без вас никак тут))

sema_87:
Keal,
Могу ошибаться, но вроде там по другому было немножко, кто то стал саповские ссылки активно ресселить на бхв, покупая в сапе за копейку и продавая на бхв за рупь, продавая как будто со своих сайтов

Кто-то делал и так, а кто-то мануалы писал о том, как покупать на сапе используя гуглпереводчик и пополнить баланс, используя Webmoney.

А вот здесь мануал от небезызвестного западного сео гуру, как иностранцам покупать "крутые трастовые ссылки с СМИ за недорого" используя Миралинкс:

https://www.matthewwoodward.co.uk/tutorials/russian-newspaper-links/

И ведь правда, сопоставимого по ссылочным метрикам сайта, который можно купить в миралинксе за 3-5 тысяч рублей, на западе просто не найти.

Там на западе с рынком ссылок вообще какая-то дичь, мне недавно какой-то чудак пытался продать ссылку с vk.com за $50 (nofollow, понятное дело), трастовая, говорит, площадка, смотри какой Domain Authority, лол. Он видимо не знал, что я русский, и знаю что эта ссылка ничего не стоит.

Так что биржи, с таким богатым функционалом как Sape и Miralinks, как ни крути, приводят ценообразование на рынке в порядок. Подобный разводняк там не прокатит.

edogs:
Если это так, то в чем проблема у сапе или миралинкса выйти на их рынок? Тоже мозгов не хватает? Доход-то должен быть так-то на порядок выше. Нам правда интересно, мы как бы не в теме сео, но не понимаем - если там ниша не занята и реально есть, почему туда русские биржи туда не идут?

Ты ошибаешься, SAPE давно вышла на рынок BlackHat SEO на западе. Но как только Мэтт Катс в своё время узнал об этом, то по всей видимости просто спарсили базу, и побанили большинство сайтов, которые закупались на Eng площадках. И об этом раструбили на форуме blackhatworld и поэтому даже самые отчаянные (индусы) сеошники, побаиваются пользоваться сапой.

Рунет для гугла не приоритетный, видимо поэтому пока еще сайты рунета не наказываются за покупку ссылок на этих биржах. Хотя по факту, можно спарсить базы за один день со всех бирж, и прислать всем ярым покупателям "Ручные санкции за ссылки". Даже тем, кто платит за "нормальные" ссылки в миралинксе по 2-3к рублей за ссылку. Когда-нибудь это случится, я думаю, пока не до этого им, видимо. И тогда весь рунет переключится на PBN, как это происходит на западе сейчас, ну либо "аутрич" - ручное размещение по договоренности с вебмастером за 100500 денег.

donc:
Вся статья на 90% унылый рерайт статьи "растолкованный пейджранк" начала 2000
С некоторыми дополнениям в современных реалиях, о которых знают у нас даже те, кто толком никогда под гугл не двигал специально.
В который раз убеждаюсь, какие же они там все "ну тупые" в плане SEO.

Конкретно эта статья - уг. И приписка 2018 просто так, а новой инфы никакой нет.

Но есть на западе и интересные экспериментаторы, которые пытаются рассмотреть всё более глупо, если касаемо PageRank и переливания веса, то например, такую штуку как положение ссылки на странице (в коде). Согласно патенту гугла, чем ниже ссылка, тем меньше передается PageRank.

Также здесь не рассмотрен момент, например если мы ссылаемся на одну и ту же страницу три раза в коде (в меню, в статье, в футере), что происходит с PageRank? Он равномерно делится между этими тремя ссылками? Или неравномерно? Или учитывается только самая верхняя, а остальные, которые мы ставим, это лишнее разбазаривание PageRanka?

А что происходит когда внутри сайта создаются дубли страниц, а затем удаляются самим гуглом, присваивается ли вес, который ушел на дублирующую страницу, основной странице (после удаления дублирующейся страницы из выдачи). Или, если мы не поставили canonical, то не присваивается? И вес утекает вникуда?

А что происходит когда страница ссылается сама на себя? Так называемые циклические ссылки, сама страница на себя же вес передать не может? Следовательно три раза сославшись на саму себя мы "проливаем" pagerank в никуда, то есть теряем, но не получаем? Или всё же Google понимает, что из-за особенностей разных CMS, это может случаться, иногда страница дважды ссылается на саму себя (в меню, в хлебных крошках, еще где-то), а иногда и 10 раз на саму себя. Так вот, согласно теории pagerank, ссылаться трижды на саму себя, или 10 раз на саму себя, это две большие разницы.

P.S. а статья ниочем, можно было не тратить время на перевод.

Может и понизится, а может и вырастет :)

Владимир-C:

Но я хотел бы понять, как лучше с позиции поисковиков, поскольку некоторые страницы находятся под ББ именно по тем ключам, которые в названии (и совпадают с ХК).
Но так не по всем страницам.

С позиции поисковиков, по моему опыту, они учитывают всё: и хлебные крошки, и менюшки, и футеры, и даже всплывающие блоки.

То есть иными словами, если у вас фраза "розовые слоны" в главном меню, в футере, в каком-то всплывающем блоке, в каком-нибудь сайдбаре, в хлебных крошках, в <h1>, то переборщить с вхождениями в тексте намного легче, чем, допустим, если бы этих "розовые слоны" не было бы в футере и в сплывающем блоке (и сайдбаре), а только в главном меню. В таком случае в тексте я бы вообще не употреблял ни разу "розовые слоны", ведь <h1> хватает пользователю, для того чтобы понять о чем статья.

На самом деле это конечно глупо, ведь даже не SEO копирайтер, а просто журналист без навыков сео, наверняка захотел бы употребить пару раз фразу "розовые слоны" в тексте. Но даже написав хорошую статью о розовых слонах, есть все риски улететь в Б-Б. Это по Яндексу..

По Гуглу проще, он более топорный и иногда даже любит переспамчик, ну это в рунете, в US там по-другому всё, только намёк на переспам и ты за топ100 :)

Всего: 479