то есть вы думаете, что хороший сайт будет пессимизирован только лишь за ссылочное? ))
ПС сама себе в топ насрет? А зачем если сайт лучше остальных?
Отморозить уши на зло вебмастерам? ))---------- Добавлено 15.04.2015 в 22:49 ----------
Вы хотите сказать, что ссылки никто под гугл не закупает? )
Плевать как это называется, PR, френд-посты, контент маркетинг, пресс-релизы, социальный маркетинг, как угодно назовите.
если может пусть не учитывает )
или они противозаконны?
это вообще-то обмен трафом, реклама, маркетинг.
что плохого в размещении статей со ссылкой на свой проект?!
нонсенс.
И вообще, кто вам вбил в голову, что нельзя покупать ссылки?!
Что за бред!
Мне нельзя заказывать сотни статей на тематических сайтах, получать поисковый трафик на них и трафик на свой сайт??!!
Это реклама вообще то...
То, что это влияет на алгоритм ПС, это проблемы алгоритма ПС.
Если это понимаем мы, думаете этого не понимают они?!
В алгоритме ПС это все вопрос вероятностей, предположений, случайности если хотите. То есть ссылочное должно стремиться к натуральности (хотя НЕ ОБЯЗАНО!), а не к отсутствию ссылочного )))
Логично?!
Ну кого-то точно бомбанут, но это не значит, что алгоритм изменился )
Тренд то понятен, ссылки работают и они хотят их учитывать, но слишком много шума, им мешает. Хотят прикрутить с помощью козлов отпущения. Ну короче все по старому.---------- Добавлено 15.04.2015 в 17:30 ----------
Ссылки это реклама. Как это может быть ссылочным спамом?!
Если вы хотите понравиться ПС то держите файлы сайта на своем жестком диске и никуда не выкладывайте.
Если ПС знает, что ссылка не натуральная, зачем ему дополнительный инструмент? Почему бы просто ее не учитывать? Зачем снимать ее учет руками вебмастера?
Потому что цель иная. И потому что определить они точно натуральность ссылки не могут.
Поэтому если вы не убрали ссылку из Disavow links это ведь тоже должно являться сигналом, что вебмастер называет эту ссылку натуральной. Верно? Также как в случае, если он ее называет не натуральной.
Ну это в случае если мы верим в мощь алгоритмов, отрицаем рандом и огромную погрешность алгоритма. То есть получается такая "несправедливая" машина с огромной погрешностью, генератор случайных чисел практически.
1. Пессимизация за ссылки является дырой в алгоритме.
Никто не будет специально делать дырку в своем алгоритме.
2. Если кому-то понадобилось наказывать, значит он не хочет видеть в дальнейшем эти действия, то есть закупку ссылок.
Если бы он их не учитывал, ему не нужно было бы наказывать! Ему было бы все равно, значит ему это мешает.
3. Вывод: раз ему это мешает, значит ссылки учитывают и планируется их учитывать в дальнейшем. Плюс дыру в алгоритме ни один нормальный человек своими руками делать не будет.
Дыра: под дырой понимаю возможность пессимизации конкурентов. Определить кто закупил ссылки невозможно. Можно сделать лишь предположение.
Логично или нет?
если бы банили легко за это, то уже все бы друг друга перебанили, придурков то достаточно.
сложные настройки, сложная установка?
в чем преимущество перед KeyCollector, базами Пастухова другими базами по вашему мнению?
Без .net framework нет версии какой-то? а то у меня конфликтует винда, переустановка .net не помогает.
То есть plain text можно выгрузить в .txt или .html?
Или как выше предложили запустить кэширование и затем просто скачать эти (html) файлы? А шаблон сделать пустую страницу с текстом