Почему собственно нет? Ведь Я заранее не знает, что 3, 4 - сайты одного лица, которые он хочет прокачать. Для Я это отдельные сайты. И если у 3 есть ссылка с 1 и у 4 есть ссылка с 1, то это должно быть нормально.
Я не может угадать в каком случае сайты имеют одинаковые ссылки естественно (типа совпадение), а в каком специально для прокачки (как в твоем случае).
Возможно имеет место оценка вероятности такого события - и в соответствии с этим снижается коэффициент передачи ИЦ. Таким образом, и ссылки не склеиваются и снижается (в зависимости от вероятности) передаваемый ИЦ на "всякий случай".
Just IMHO ))
А чем оно обосновано? Экспериментами или домыслами?
Разработчик, Выводы в студию)))
Ну и как?
Что получилось то?)
Угу. Я уже думал может сделать возможноть по закрытии темы - писать по ней выводы. Так будет куда больше пользы от форума. ИМХО
Это не выводы а инструкции)
Просто наверно охаректеризовать смену соотношений влияния обраток, сквозняков и тд
Если кому такое под силу.
Ведь уже много тем создано по смене алгоритма, снижению тиц. Люди чего то писали, спорили.
А чего наспорили?
Вот я не смог собрать все в кучу и сформулировать. Вот я и спрашиваю мнение форумчан кто что надумал)
Сорри за тупой вопрос: А что подразумевается под "передается ссылчное"
Там еще важно стоит ли ссылка на всех страницах или на всех кроме главной.
Поправьте могу ошибаться
Да было уже
Кто че говорит
Но про 1 больше - типа надежнее
Тока что проверил Я показавыет и >14
в чем трабла?)