Рассказываю. Во-первых, срок индексации ссылок 2-го уровня составляет в среднем 10 дней. Морды Вы явно не покупали, а скорее всего 3ув. Значит срок индексации увеличивается. Второе - Вы покупали по 5-10 в день, а не сразу, это еще увеличивает срок индексации. Третье - Вы скорее всего не проверяли страницы на индексацию, где покупали линки.
Как практик. К чему этот вопрос? А Вы теоретик?
wizzer, ну Ваше право, если у Вас роботс - это контроль доступа, то смысла спорить не вижу :D
Да мне без разницы. Я понимаю, что пиар своего блога это святое.
P.S. Кстати вот статья, которая будет полезна всем по теме. Стоит учесть также дату статьи и экспериментов, а прогресс роботов никто не оспорит.
.htaccess - это контроль доступа. Учите матчасть, сударь. И не позорьтесь.
Если роботс - это контроль доступа, то попробуйте запретить бота яху, к примеру, и посмотрите будет ли он ходить по страницам.
ImPER@ToR, это ни о чем не говорит. Множество продвиженцев и в топ выводят набоум. Такие конструкции ничем не помогут.
Возможно, только разница по позициям на ряде проектов очень значительная. Посмотрим.
Дизэллоу для юзер агентов - это рекомендация к индексации, которой все придерживаются, но не рекомендация к заходам. Юзер видит запрещенную страницу? Бот будет также видеть и делать служебные "выводы", такие как рефер партнерки и сама конструкция, где боту запретили индексацию, а юзеру отдают страницу. Если не поняли, перечитайте пару раз.
Wadim, тут не в этом дело. Вы изначально ошиблись с местом поиска исполнителя. Толкового сеошника здесь реально найти, а вот с программистами будет нереально, потому что их и так очень мало в чистом виде, так как большинство на полставки сеошники, а на половину прогеры или сисадмины, что по умолчанию не делает их гуру программинга.
Коля Дубр, статья уже достаточно "возрастная", потому, возможно, достойна новых комментариев от автора с учетом новых условий. Хотя сам считаю, что склейки нет, есть иные факторы, тормозящие продвижение, при использовании одинаковых анкоров. Если у кого то есть мысли, рад бы услышать.
По первому способу.
Мое имхо, что палиться, потому что в итоге получается такой точно урл, как и без этих извращений. Сам юзал такое в свое время, но не для слива трафа.
По второму способу.
1. Бот тоже будет перекинут редиректом и не суть важно, что конечная страница закрыта в роботсе, сам факт редиректа будет явно палиться.
2. То, что есть запрет в .htaccess - это рекомендация для ботов. Если юзер может видеть страницу, то и бот аналогично. То, что написано в help яндекса и реальная практика не включения страниц под запретом не опровергает того, что страница видна ботам.
Капча, возможно, в разных вариациях использования самый разумный вариант. В смысле 100%-ый.
На индексацию страницы проверяете, где покупаете?