Ага, потом убиваю слона и продаю слоновую кость.:)
А если серьезно, почитайте блоги разработчиков и сотрудников Гугла и Вы узнаете много интересного про борьбу с paid links.
Конечно, использую PHP, можно вставлять в тексты страниц ссылки, которые по смыслу и по HTML выглядят абсолютно натуральными и контекстными. Но...
- у поисковых машин есть кэш и в нем есть образ страницы, когда она только попала в индексацию - т.е. еще без размещенных на ней платных ссылок. Проходит время и вдруг, о чудо, на ней возникают различные ссылки - какие на неделю, какие на месяц, а какие и на полгода - и все это меняется постоянно - ссылки, анкоры. Поисковик сравнивает кэш и вывод для поисковика однозначен - здесь размещают платные ссылки и можно применять санкции - к обоим участникам процесса.
Что уважаемые господа могут предложить в качестве решения данной проблемки?
Превращает УНИкальный текст в КАЛ?😂
А если серьезно, все эти самодельные синонимайзеры, уникализаторы и т.д. - выдают продукцию, весьма мало отличающуюся от хороших генераторов типа цепей Маркова - т.е. тексты не для людей, а для ботов.
За последние полгода Гугл заметно улучшил свой алгоритм и теперь успешно распознает натуральные и ненатуральные (покупные) ссылки. Не нужно ничего и нигде писать - Гугл и так всё знает.
Здесь всё подробненько: http://www.sitemaps.org/
Натуральные ссылки - рулят!!! В рунете это до всех доходит как до жирафов!!! К нам все мировые тенденции доходят с полугодовым опозданием. Одно слова - Азиопа.
Тем, кто использует рекомендации поисковых систем - нестрашно.
Новый алгоритм Гугла влияет и на то, и на то.
Многие отметили, что последний апдейт PR был обвальным. Об этом много писали, например http://www.searchenginejournal.com/google-drops-pagerank-for-many-sites-paid-links-or-new-algorithm/5890/
А это Вы с кем разговариваете? Бредите? Я уже Вам советовал - в клинику, срочно!