YaanGle

YaanGle
Рейтинг
155
Регистрация
06.09.2011
4irikk:
регнулся на яндексе а как сайт продвинуть по поискавику помогите

Последствия запуска Яндекса в Турции.

dayn:
С чего все в гугл-то побегут? Фишка-то новая-стильная-современная. У Гугла такой нет. Это с гугла к Яше побежать могут. А как прибегут посмотреть на чудо-фишку, так и останутся, обомлев от геотаргетинга по городам. Которого у гугла, кстате, тоже нет.

Вообще-то в Гугле тоже есть персонализация, взять хотя бы повышение в серпе сайтов, с подписью "вы посещали ...бла-бла-бла" и прочее :)

MGX2000:
Думается месяца через 3 Яндекс потеряет процентов 10 аудитории, все переберутся в Гугл.

Если бы они руководствовались только "думается" то уже все давно бы в Гугле сидели.

atoty:
В robots.txt мы сможем лишь запретить к индексации такие страницы, хотелось бы еще сохранить ссылочный вес передаваемый на страницы с метками, чтобы он не уходил "в никуда". А также яндекс показывает в числе ошибок закрытые в robots.txt страницы имеющие внешние ссылки.
Возможно я в чем-то ошибаюсь.

А какой вес у страниц с метками ? Мне кажется, у Вас небольшая seo-паранойя :)

atoty:
Недавно столкнулась с проблемой использования UTM меток. Такие метки конечно очень хороши для аналитики, но создают много неприятных моментов для SEO - дублирование контента, потеря ссылочного и т.п.
Для себя в теории пока определила следующие пути решения:
Использовании условного редиректа. Можно сохранять параметры запроса в файлах cookie одновременно с безусловным редиректом на «канонический» URL, по мере поступления запроса для отслеживаемого URL.
С помощью js можно подменить URL в адресной строке.
Добавить meta-тэг rel=”canonical”, который склеит несколько копий страницы в одну (можно указать, какую страницу считать основной).
С помощью robots.txt запретить к индексации страницы, которые содержат UTM-метки.
Для Яндекса в robots.txt ещё можно указать параметры UTM-меток в директиве Clean-Param.

И еще один интересный прием, который включает в себя добавление кода слежения к ссылке таким образом, что отслеживаемый URL автоматически сжимается поисковиком. Этот метод основан на использовании символа #, который обычно используется для направления посетителей на «заякорную» часть страницы. Нужно просто добавить # к ссылке, после чего последует код слежения. Поисковые роботы проигнорируют символ # и все, что за ним следует, таким образом ссылочный вес накапливается, и дублирования не происходит.

Интересно было бы услышать ваше мнение по данному вопросу, может кто-то сталкивался и применял что-то на практике.

Эм..а к чему столько заморочек, когда одного роботса хватает ?:)

богоносец:
А вы сам запрос тут напишите.
И сравните
релевантность site:forum.searchengines.ru
с
релевантность url:forum.searchengines.ru*

И вправду, у host/url одна выдача, у site другая.

Нашел запрос для примера: [заказать переезд ежедневно], сайт - http://ruavtotrans.ru

Одна из причин, похоже, как то связана персонализацией - для некоторых запросов в режиме инкогнито и сервисами всё совпадает.

Inf1n1ty:
Это кто вам такое сказал? Если сменилась релевантная страница -это очень плохо и побочным эффектом как раз является падение позиций. Либо вес этой страницы меньше (недооптимизировали), либо переоптимизировали.

Забыл добавить: если изначально обе страницы имеют примерно одинаковую текстовую релевантность запросу (на глаз) :) И это не нечеткие дубли

Shlackbaum:
YaanGle, ну некоторые могли исследовать этот фактор и нахаляву поделиться с конкурентами... почему нет?😂

Я думаю, что слишком много если для того, чтобы внедрить и для того чтобы отследить это:)

Shlackbaum:
Патентов Яндекса не нашел :) Но мнение естественно интересует по Яндексу

А на что основываться ?)

У меня сразу возникают следующие вопросы по "ссылочному ускорению":

  • За какой период времени, можно оценить, что ссылочное действительно ускоряется, и в течение какого промежутка времени на эти данные можно ориентироваться?
  • На какой порядок/значение можно ориентироваться, чтобы сказать, что ссылочное ускоряется?
  • Дает ли подобная мера приятный эффект в качестве ранжирования?

+ можно еще сотню других.

Яндекс базу обновляет раз в неделю, а тут еще и динамику ссылочного отслеживать 🤣

Многие ноют, что поиск Яндекса гавно :) А че, у кого-то есть лучше, хотя бы по коммерческим запросам ?

Всего: 1049