- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Angelika, теперь понял. Так Яндекс в первую очередь стремится НЕ бороться с оптимизаторами, а выдавать качественный контент. Я бы не сказал, что ограничения, для оптимизаторов же ставятся фильтры, а не для улучшения позиционирования 10000000... всё не так просто.
всё не так просто
Мы явно думаем одинаково! :)
Тут сложно - случайный параметр, конечно помешает разгадать алгоритм, но также помешает и делать качественным результат поиска....
Кстати, А.Ю.Волож искренне считает, что существуют многие десятки и сотни сайтов, которые релевантны любому мыслимому запросу. Поэтому неважно, какие именно из них показывать первым.
Привет!
Sim, это не важно поисковой системе, а владельцу сайта важно ;) тут палка о двух концах.
тут палка о двух концах
Fly, о трёх. Еще есть несчастные пользователи.
Sim, точно. Но если смотреть с другой стороны, то они сторонние наблюдатели и сами решают устраивает ли их это или нет, выбор-то большой.
по сабжу вес склеенных ссылок остается средне арифметический, т.е. если склиеиваются ссылки с условным весом 5 и 3 то в иоге будет засчитана ссылка с условным весом 4.
Глупость - так можно любого конкурента свалить - посмотрел какие ссылки у него с весомых "морд" и поставил такие же с пары сотен форумов. Даже если ссылки "склеиваются" - вес все равно передается от каждой ссылки отдельно - по другому просто быть не может. ;)
Вот у оптимизаторов там где "кондиционеры" и "пластиковые окна", там и центр Вселенной! А кроме "игроков" в интернет еще 10000000 сайтов!
Вот только непонятно: как оценивать качество выдачи в неконкурентных областях? 10000000 экспертов - это фантастика, а других способов не приходит в голову.
Единственный вопрос, который можно в данном контексте рассматривать серьезно - как учитываются ссылки со страниц-дублей и сайтов-зеркал. И если с первых ссылки должны по логике считаться все же разными, то во втором случае ссылки должны считаться за одну. Но это тот крайний случай, который не способен как-либо серьезно повлиять на выдачу.
Хм... Предположим, у нас есть некая формула n=a+b, где n-некоторое число в соответствии с которым выстраиваются сайты по запросу (то есть чем оно выше, тем выше сайт); a - составляющая, зависящая от контента сайта, b - составляющая, зависящая от внешних факторов (то бишь ссылок)...
На данный момент, есть очень серьезное мнение =), что от составляющей b сейчас выдача зависит намного больше... С этой составляющеи и работают по большей части... В неконкурентных областях куда больше будет иметь значение параметра a, чем в конкурентных... Отсюда, делаем вывод, что если вносить некий запутывающий элемент в параметр b, то он особо не повлияет на выдачу в неконкурентных запросах...
Это как небольшой пример того, как оно может существовать...
Что же касается склеивания ссылок, то на сколько я могу представить, анализ сайтов на предмет склеиваемых ссылок, мог бы проходить только в момент запроса... НАпример, вытаскивается массив сайтов, ссылающихся на данный и тут же анализируется... Если находит одинаковый текст, то тут же удалет этот сайт, но это все все равно долго!!! Представьте если на сайт ссылаются 10000 сайтов, это получается, надо их целиком просканировать... Может я не так мыслю??? Поправьте если я не прав!
Все же, я думаю, что о склеивании в том понятии, как например склеивание сайтов-зеркал, тут речь идти просто не может... Возможно как раз этот параметр склеивает ссылки с сайтов-зеркал, чтобы считать их за одну, например с rd=456 =) А rd=0 или rd=2 - это на радость оптимизаторам... Вот в таком случае подобный параметр объясним =)