Пруф на дискуссию гуру.
У ПС нет понятия "авторство", это юридический термин. Но по ссылкам на источник информации поисковик понимает, где первичный источник информации, а где - перепечатки или цитаты.
Соответственно, первичный донор информации поднимается в выдаче.
Плюс, как написал Н-н-не-нефтянник, ПС учитывают ссылки вида <a href='http://ИМЯ_САЙТА/СТРАНИЦА'>переводы с арабского</a>. Такая ссылка - это рекомендация ПС, что на страничке "ИМЯ_САЙТА/СТРАНИЦА" размещена информация по теме "переводы с арабского"("переводы с арабского" - это называется "анкор" ссылки).
Когда кто-то набирает в ПС запрос перевод с арабского, поисковик учитывает такие ссылки, решая показывать страницу вашего сайта или нет. Это называется "анкорное ранжирование".
Про допустимость существования одинаковых текстов на разных сайтах (дублей) - причин много:
1. Один из сайтов может быть недоступен или исчезнуть со временем, а пользователям надо дать информацию на их запрос. Дублирование информации повышает надёжность её хранения.
2. Некоторые тексты, например законы и цитаты из них - могут быть на сотнях разных сайтов в качестве примеров или для подтверждения каких-то тезисов или выводов.
3. Некоторые общеизвестные тексты принадлежат всему человечеству, например Коран. Тут первенство размещения информации в Интернете не может играть для ПС никакой роли и они не применяют санкции к сайтам за полные или неполные дубли текстов.
Но у переводов с одного языка на другой - всегда есть автор, отвечающий за достоверность информации. Ссылка с "перепечаток" на авторский источник - должна быть и по этическим соображениям, и с точки зрения норм закона об авторском праве, и с точки зрения ответственности за размещённую информацию перед посетителями сайта.
Ведь автор со временем может немного поменять своё творение, потому что понял что-то глубже, подобрал другие слова, чтобы точнее передать смысл.
А вот если сайт целиком состоит из копий текстов с других сайтов - тут у ПС отношение однозначное. Такой сайт не несёт никакой информационной ценности.
PS: Конечно, 10 дублей на 1000 страниц - цифры весьма условные. Из-за несовершенства алгоритмов ПС в выдаче бывают и полные дубли сайтов, а иногда и первичные доноры информации попадают под санкции ПС.
Оно не ПЛЮС, эти 46000 зачитываются в уплату 6%.
При достаточных объёмах - какая разница: все 6% в налоговую, или 6%-46000 налоговикам и 46000 в ПФ.
PS: С ИП - та же ситуация, как с НЭП.
Когда надо быстро и чужими руками вывести страну из разрухи - снижают налоги и снимают запреты.
Потом - закручивают гайки до тех пор, пока не начнётся следующий кризис.
Процесс уже отшлифован до мелочей: кризис власти большевиков в 1920-е года, потом кризис власти 1990-х, и наше время.
Запрещать индексацию страниц можно И в robots.txt И мета-тэгами одновременно.
Robots.txt - удобен для масок на несколько страниц, и в движок сайта не надо лезть
Мета-тэги - на конкретную страницу, но позволяют более гибко управлять индексацией/проходу по ссылкам (index+nofollow, noindex+follow).
Сначала проверяется robots.txt, а потом - мета тэги. В панели вебмастера, запрет мета-тэгами может отражаться как "запрещён в robots.txt".
Для Яндекса можно протестировать тут.
У меня пока нет достаточных оснований им не верить - 3 раза сайты восстанавливались в выдаче в течение месяца после подобных ответов.
По редиректу - будет, но это дополнительный геморр с правилами редиректа.
PS: Когда ковыряла доноров вечных ссылок - встречались ссылки, купленные через сокращатель: http://u.to/mGL- - походу, тоже работают, ибо тестировали бы на чём по-дешевле.
Думаю, у нас просто сайтов меньше и конкуренция ниже, поэтому Google не включает все фильтры и на полную катушку.
Из-за конкуренции с Яндексом, Гуглу в России приходится осторожничать - он тут не настолько монополист, чтобы диктовать свои правила игры.
Не все понимают принцип работы сотовой связи, физику электромагнитного поля, программирование и работу процессоров.
Но, это не мешает им пользоваться сотовыми телефонами себе во благо.
Потому, что есть некоторые люди, которые понимают всю техническую часть, и сделали сервис.
Тут логика в другой плоскости - "создатели шахматных движков" обыгрывают друг друга, кто точнее соответствует текущему состоянию процесса ранжирования -> удовлетворению потребностям посетителей (но опять же с точки зрения ПС).
Только ПСам количественную величину этого "доверия" придётся определять по каким-то физическим параметрам сайта(включая хостинг, IP, whois, доменную зону, ссылок в Вики/ЯК/ДМОЗ/Mail.Ru), оценки асессоров/модераторов, поведения посетителей.
Вот у вас по каким параметрам формируется степень доверия к информации в постах незнакомых вам людей?
r-man, 40 ссылок(даже с одним анкором) не смогут ничего сделать с сайтом, тем более 2005 года. Разве что эти 40 ссылок - с морд типа Яндекса/Google/Microsoft.com и тп.
GGL тут ни при чём.