-= Serafim =-

Рейтинг
1354
Регистрация
10.12.2006
.
dragooo:
Дней 10 назад начал покупать ссылки в Сапе на сайт по запросу(по 5-10 ссылок в день). Ссылки покупались у сайтов с ТИЦ минимум 10, выбирал вручную. Вчера в панели вебмастера появились на них 9 бэков.

Рассказываю. Во-первых, срок индексации ссылок 2-го уровня составляет в среднем 10 дней. Морды Вы явно не покупали, а скорее всего 3ув. Значит срок индексации увеличивается. Второе - Вы покупали по 5-10 в день, а не сразу, это еще увеличивает срок индексации. Третье - Вы скорее всего не проверяли страницы на индексацию, где покупали линки.

MoscowMenu:
вы как теоретик в дорвеях или как практик сейчас рассуждаете?

Как практик. К чему этот вопрос? А Вы теоретик?

wizzer, ну Ваше право, если у Вас роботс - это контроль доступа, то смысла спорить не вижу :D

wizzer:
из топика не сольюсь. даже не уговаривай

Да мне без разницы. Я понимаю, что пиар своего блога это святое.

P.S. Кстати вот статья, которая будет полезна всем по теме. Стоит учесть также дату статьи и экспериментов, а прогресс роботов никто не оспорит.

wizzer:
роботс это не рекомендация к индексации, а именно контроль доступа

.htaccess - это контроль доступа. Учите матчасть, сударь. И не позорьтесь.

Если роботс - это контроль доступа, то попробуйте запретить бота яху, к примеру, и посмотрите будет ли он ходить по страницам.

ImPER@ToR, это ни о чем не говорит. Множество продвиженцев и в топ выводят набоум. Такие конструкции ничем не помогут.

_Ad:
говорят, сейчас и не снежинск пока что, а всего лишь обычный ап

Возможно, только разница по позициям на ряде проектов очень значительная. Посмотрим.

wizzer:
мой мозг не осилил этого. не отказался бы от пояснений.

Дизэллоу для юзер агентов - это рекомендация к индексации, которой все придерживаются, но не рекомендация к заходам. Юзер видит запрещенную страницу? Бот будет также видеть и делать служебные "выводы", такие как рефер партнерки и сама конструкция, где боту запретили индексацию, а юзеру отдают страницу. Если не поняли, перечитайте пару раз.

Wadim, тут не в этом дело. Вы изначально ошиблись с местом поиска исполнителя. Толкового сеошника здесь реально найти, а вот с программистами будет нереально, потому что их и так очень мало в чистом виде, так как большинство на полставки сеошники, а на половину прогеры или сисадмины, что по умолчанию не делает их гуру программинга.

Коля Дубр, статья уже достаточно "возрастная", потому, возможно, достойна новых комментариев от автора с учетом новых условий. Хотя сам считаю, что склейки нет, есть иные факторы, тормозящие продвижение, при использовании одинаковых анкоров. Если у кого то есть мысли, рад бы услышать.

По первому способу.

Мое имхо, что палиться, потому что в итоге получается такой точно урл, как и без этих извращений. Сам юзал такое в свое время, но не для слива трафа.

По второму способу.

1. Бот тоже будет перекинут редиректом и не суть важно, что конечная страница закрыта в роботсе, сам факт редиректа будет явно палиться.

2. То, что есть запрет в .htaccess - это рекомендация для ботов. Если юзер может видеть страницу, то и бот аналогично. То, что написано в help яндекса и реальная практика не включения страниц под запретом не опровергает того, что страница видна ботам.

.:nbd:.:
Для настоящих параноиков проще использовать пост запросы на скрипт редиректа, с ответом на какой-нибудь вопрос. Вопросом может быть что угодно - капча, что изображено на картинке, сколько будет 2 + 2 и т.д.

Капча, возможно, в разных вариациях использования самый разумный вариант. В смысле 100%-ый.

gekz:
В АП из 100 ссылок с сапы влетело всего 2

На индексацию страницы проверяете, где покупаете?

Всего: 27710