Считаю что тег nofollow - полностью идиотская идея. Это все равно, что текст конвертировать в картинку и выкладывать на сайте. Любая ссылка должна оставаться просто ссылкой.
Я пару лет назад везде поставил nofollow. Сделал это лишь потому, что надоело отвечать на письма "аптимизаторов", которые сначала спамят, а потом ноют про свои несчастные веб сайты, которые якобы Гугл понижает из-за ссылок.
А детей Грея и Люпуса* ты кормить будешь?
* - или кто там еще в бизнесе.
Я тоже неоднократно слышал от беларусов, что тараканы исчезли, потому что сотовая связь появилась. 😂 😂 😂
В Америке сотовая связь тоже есть, однако, судя по пышущим здоровьем тараканам, в Америке сотовая связь экологически чистая. :)
Может все-таки дело в Чернобыле и прочей химии?
Говорят, последнее достижение - свинцовые тампоны. Они в себя излучение втягивают.
Потому что Бинг и Яху ведут себя как лохи. Почему? Долго объяснять.
Реми Мартин - "зачот". Остальное - говно. :)
Чем бы идиоты не тешились, лишь бы по "лайкам" кликали.
Да, последние несколько лет много ГС-ов повылазило и без ссылок. Сейчас Гугл очень загадочный стал.
У меня тоже такие подозрения, но это же какой штат народу надо содержать, чтобы вручную просматривать такое сумасшедшее количество сайтов?! 😕
Опять же, очень высокий риск субьективной оценки. 😕
И еще: по запросу "online classifieds" я не нашел craigslist.org даже на третьей странице. Как это можно понимать?
У меня только один вывод: Гугл понижает своего собственного конкурента в нише рекламы.
Кстати, еще вот последнее время никак не могу понять, почему Гугл использует "двойные стандарты": есть много ниш, где сайты берут информацию из одного источника. Самый яркий пример - это сайты о бронировании отелей, рейсов, резортов и т.д., и, например еще(моя тема), объявления о продаже недвижимости и автомобилей. В Штатах есть пару сайтов, которые раздают фиды таким сайтам. На всех этих сайтах совершенно одинаковая информация, взятая из одного источника. Но эту многократно дублированную информацию на одних сайтах Гугл индексирует и, соответственно, допускает к "корыту", а других старательно душит. Я даже проводил тестирование: даже, если контент появляется на одном сайте раньше, чем у другого, то "неприкасаемый" индексируется, а тот, кто даже раньше выложил контент, нет.
Неужели в самом деле, Гугл вручную помечает некую группу "неприкасаемых" везунчиков?
По идее, если алгоритм для всех одинаков, то он должен либо давать вперемешку, либо душить всех за дублированный контент.