- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Домены понятно, в результатах должно быть 10 разных ресурсов.
Если склейка - это всего лишь их сокрытие от просмотра - да пусть они хоть все "склеятся"
А если делать поиск внутри одного сайта? Там в выдаче тоже логично видеть только разные страницы...
wolf, если бы Яндекс занимался еще поиском одинаковых ссылок, то это на порядок усложнило бы алгоритм пересчета. Со склейкой доменов такой проблемы не возникает. Насколько я понимаю - это отдельная процедура, да и домен - более стабильная единица, нежели ссылка. Что касается неотображения ссылок, то мне видится, что это связано исключительно с архитектурными особенностями - ссылки хранятся в разных кластерах.
Но даже если на секунду предположить, что "склейка" действительно существует и, таким образом, обнуляет вес некоторых ссылок, то укажите пожалуйста принцип, по которому определяется тот "один, который должен остаться в живых"? Логичнее было бы предположить, что даже если склейка существует, то как правильно указал wolf, их вес суммируется. А следовательно - разницы в передаваемом по этим ссылкам весе - не будет! Поэтому и обсуждать просто нечего.
А если делать поиск внутри одного сайта? Там в выдаче тоже логично видеть только разные страницы..
Мне трудно сказать однозначно про логику. Если кто-то полез искать по сайту, возможно ему нужны все страницы. Но мы кажется отвлеклись...
укажите пожалуйста принцип, по которому определяет тот "один, который должен остаться в живых"?
О! Леша, точно в яблочко! Я этот вопрос приберегала напоследок, так сказать - "контрольный в голову"!
..."контрольный в голову"
Тань, сама идея полумертвая :) Так что можно обойтись и без этого.
Сами корни таких "мифов" в том, что не любит народ работать, а ищет "Причину!" Новички гоняются за тИЦ и удивляются, почему сайт с тИЦ=20 на 1 месте, а они с тИЦ=1000 - на 20-м. Те кто поопытнее придумывают "склейки" и прочие небылицы. По моему, принципы работы поисковиков уже давно разжеваны и понятны - нужно просто работать. Если что-то и остается неясным, то скорее новые, перспективные технологии, которые только опробируются (личное мнение). Но отнести к таковым "склейку" ссылок - язык не поворачивается.
Те кто поопытнее придумывают "склейки" и прочие небылицы.
Не знаю, но к &rd=2 у меня интуитивно серьезное отношение.
Я ведь не просто так предложила описать эксперимент по обнаружению.
Не знаю, но к &rd=2 у меня интуитивно серьезное отношение.
Лично мое мнение, что этот параметр влияет только на учет в выдаче дублей страниц. Соответственно, при включении их отображения, выдаются и ссылки, находящиеся на них. В противном случае дубли не просматриваются и ссылки, соответственно, не показываются. Вот и все.
Давайте начнем с определений. Склейка это когда было несколько одинаковых ссылок, осталась одна.
Хорошее определение, но какое-то бессмысленное. Для меня как для практика "склейка ссылок" - уменьшение влияния ссылок с одинаковым текстом на ссылочное ранжирование по сравнению с ссылками с тех же страниц, но с разным текстом.
эксперимент ... как можно со 100%-й уверенностью наблюдать процесс склейки ссылок
Покупаем по по ссылке на два примерно одинаковых сайта с 50 морд. Текст первой ссылки постоянен, второй - варьируется. Наблюдаем за выдачей. Есть веские основания полагать, что второй сайт окажется существенно выше.
При склейке доменов, к примеру, их показатели суммируются.
У меня был убедительный контрпример: после склейки Яндекс учел внешние ссылки только на слабый (но описанный в каталоге) домен.
Но даже если на секунду предположить, что "склейка" действительно существует и, таким образом, обнуляет вес некоторых ссылок, то укажите пожалуйста принцип, по которому определяется тот "один, который должен остаться в живых"?
Хороший вопрос. Вот только Сегалович не ответит, а больше никто не знает.
Логичнее было бы предположить, что даже если склейка существует, то как правильно указал wolf, их вес суммируется.
Никак не пойму: при чем тут логика? Точнее, какое отношение имеет эта логика к реальности?
PS: всем коллегам привет!
По моему, принципы работы поисковиков уже давно разжеваны и понятны - нужно просто работать.
Леша, разжуй мне, старому дураку, принципы фильтрации ссылок с продажных морд и как вычислить морды неотфильтрованные.
Покупаем по по ссылке на два примерно одинаковых сайта с 50 морд. Текст первой ссылки постоянен, второй - варьируется. Наблюдаем за выдачей. Есть веские основания полагать, что второй сайт окажется существенно выше.
Костя, а, может, лучше всё-таки провести эксперимент? :)
В идее фильтрации ссылок с одинаковыми текстами есть один очень слабый момент - очень много естественных ссылок именно такие - например, когда текстом ссылки является название компании или адрес сайта.
У меня был убедительный контрпример: после склейки Яндекс учел внешние ссылки только на слабый (но описанный в каталоге) домен.
Я тоже наблюдал подобное. Но это бывает очень редко, в моём случае была склейка доменов второго и третьего уровня, возможно где-то в механизме склейки произошёл сбой. Как правило же, склеивается с суммированием, и это тот случай, когда исключение только подтверждает правило. :)