Как говориться, он ужасен, но лучше него ничего нет.
Естественные это которые бескорыстно ставятся на ваш сайт, тоесть потому что он ваш сайт такой хороший, что на него надо поставить ссылку. Ну скажем если бы вы в статье ссылались на Википедию(ссылка на неё). Так вот вот смысл алгоритма PR(современного) состоит в том что бы не учитывать другие ссылки в ранжировке или они слабо влияли.
Такие ссылки имеют меньший вес так как они не "естественные". А то бы все ссылками обменялись. Всё время алгоритм дорабатывается для отлова не "естественных" ссылок. А насчет долго, непросто 1 трилион страниц обработать, страшно представить сколько там ссылок!
У Google и Яндекса алгоритмы подсчета PR и вИЦ, разные, Google считает сложнее и дольше. Надо смотреть в конкретном случае. Видимо каждый из алгоритмов, по своему считает что-то "накрученым".
Напрямую менялись или нет? Если напрямую, То гугль скорее всего вас раскусил.
В случае "уникального" и "интересного" контента робот может игнорировать запрещение, хотя скорее всего
Top for the good, Почитаем в оригинале! А то мало ли как на переводили.
Вот после такого, и приходиться объяснять людям, что главное не количество Мп.
Конечно могут, правда Яша странный может и наказать, а может и нет. То выкидывает из поиска за дублирующиеся контент, а когда пишешь в поддержку, что у тебя украли бываю отвечают, что это не их дело.
Да, правда давно, я лично пользовался иногда, главное в запросе по меньше русских слов употреблять и тогда выдаст.
Это скорее всего учитываться история поиска. Попробуйте и "чистой" операционкой и "чистыми" браузерами. Не должно быть отличий.