быть может найдутся знатоки и математики, которые подойдут к примерному виду матричной функции... тогда жить всем будет легче =)
по сути алгоритмы совсем не менялись... В любых алгоритмах нужны хорошие доноры и качественные акцепторы
просто теория, говорящая о том, что каждый параметром может применяться к любой из подфункции. Статья всё же про Снежинск написана... без теории никак
Согласен, но у каждого бывают какие то свои непонятки с Яндексом. Сам был свидетелем, как страница не перебивалась в течении 4 апов, хотя была оптимизирована другая. Пришлось поступить грубо, вывести из индекса первую, затем вторая получила выбор яндекса, ну и вернули первую в индекс. И такое бывает...
Хм, надо попробовать. Чем ещё пользуется народ для анализа на ошибки сайта и продвижения (кроме того, что указал в статье)?
Незакрытые теги - основная причина, наткнусь на пример, выложу, спецом искать не инетересно
Ну во-первых проблемы есть всегда и у каждого сайта, может быть не столь значимые. Во-вторых какая разница означает что проблемы уже есть или нет? К статье не относится.
тогда зачем читали статью полностью? Остановились бы на первом "перле" и не тратили бы своё время на написание комментария
Тогда вопрос стоит: "Что сильнее - robots.txt или метаег страницы?"
быть может метатег с разрешением индексации перебивает роботс? Кто как думает?
Может переборщили? Страницы в индексе?
Василий, добавить строчки до вылета страниц из-за АГС и после - разница большая, не читаете так? После попадания под АГС, уже нет смысла ставить строчки в роботс. Одним роботсом не отделаешься...
По Яндексу провёл, о чём писал чуть выше (на прошлой странице). Роботс - точно работает. А по Гуглу мне нет смысла проводить, я в этом не заинтересован
Яндекс - точно учитывает и причём отлично, на счёт гугла не уверен
дополнение: чем меньше ВС на странице донора - тем больше веса перетечёт вам