Бóльшая часть рунета уже в непоте?

ЕнштеЙн
На сайте с 10.08.2007
Offline
71
#51
boga@voxnet.ru:
Вопрос в том: а надо ли вообще заниматься массовым определением непота
для оптимизации бюджета при продвижении внутряками?

думаю стоит, под непот попадает весь сайт, если есть противоположные примеры - прошу в личку

Адское настроение!
SeoCSI
На сайте с 21.09.2006
Offline
19
#52
mhz:
Когда я покупаю ссылки в сапе, я стараюсь все страницы с показателями pr от 2, тиц от 100 (или ценой выше 1 доллара) вручную проверять на наличие непот-фильтра, чтобы экономить бюджет.

Сейчас просматривал около 300 ссылок и ужаснулся — по моим наблюдениям, почти 80% страниц под фильтром. Процентов 20 из них — это, конечно, ГС — на них я особо не смотрю, но остальные страницы меня поразили. о.О

В итоге, из 300 ссылок примерно 50 я купил, потому что уверен в отсутствии санкций, еще порядка 20—30 купил просто потому что мне не хотелось верить своим глазам, т.к. страницы были действительно хороши. =)

Из ~20 морд, не купил ни одной — все уже «там»…

Вопрос: это что, бульшая часть рунета уже в непоте? Или опять какие-то траблы у Яндекса, что он не может найти акцептора? Или я дурак?

Буду рад дельным ответам.

Не могу разделить Вашего пессимизма...По русской поговорке - свято место пусто не бывает. Каждый день представленные ресурсы в Sape, также как и вообще в ПС - в каком-то количестве уходят в фильтр, но при этом появляются новые, чистые. Причем не факт, что новые в Sape равно новые в принципе. Могут быть уже и набравшие вес, которые владелец просто ранее не пускал "в продажу"...

Поэтому я для себя лично вывожу следующий алгоритм работы со ссылками (составление правильных описаний - отдельная песня, сейчас не об этом).

1. Максимально полное использование автоматических настроек Sape. Каждый проект оформляется следующими настройками

- Автоматически снимать ссылки с сайтов, отсутствующих в ПС Яндексе: V

- Автоматически снимать ссылки со страниц, количество ВС на которых превысило:

10 - для главных страниц

15 - для второго УВ

20 - для третьего УВ

- Автоматически снимать ссылки, имеющие статус ERROR столько дней подряд: 7

2. Настройка фильтров подбора площадок с учетом ключевых слов.

3. Разделение фильтров подбора на категории - дешевые, дорогие, очень дорогие

Далее - проверка каждые 3 дня. Т.е. каждые три дня по сумме/количеству видно, что упало..что пропало. Все, что не соответствует первоначальным настройкам удаляется программно. Потери компенсируются новыми ссылками.

И ручная проверка раз в неделю, т.е. проверка выживших, беглая вторичная сортировка и докупка новых.

Пока во всяком случае, автоматическое снятие помогает не платить за пустышки (заспамленные, явно зафильтрованные), но и регулярно пополнять проект ссылками в пределах выделенного бюджета.

Возможно, полагаться в основном на "программную чистку" - проявление наивности..но во-первых, система себя оправдывает, а во-вторых более детальную работу по ссылкам вести просто некогда. Если их количество превышает 200 шт/урл, а на продвижении минимум 7 запросов, а еще помножить на кол-во проектов..., то при тщательном анализе каждой купленной ссылки пришлось бы проситься в Sape на ПМЖ :)

Evgeny Smirnoff
На сайте с 12.01.2006
Offline
153
#53

- Автоматически снимать ссылки, имеющие статус ERROR столько дней подряд: 3

Нет такой настройки в Sape!!! доступное значение параметра от 7 до 30

mhz
На сайте с 16.05.2007
Offline
190
mhz
#54

SeoCSI, спасибо за совет, сам примерно такую же схему юзаю, но, правда, чуть более мягкую.

а с непотом, это я, конечно, глюканул. не знал, что уже порубили эти запросы.

Миниатюрный бультерьер Сахарок (http://www.bule4ka.ru/) — СДЛ о собачках. Вечные ссылки — безопасный способ продвижения и заработка. (http://miralinks.ru/users/registration/from:163)
Dmitry V___v
На сайте с 07.12.2006
Offline
310
#55
Evgeny Smirnoff:
- Автоматически снимать ссылки, имеющие статус ERROR столько дней подряд: 3 Нет такой настройки в Sape!!! доступное значение параметра от 7 до 30

Правильно. Она же может 10 раз на дню в статус Error И обратно скакать. А критично получается только для быстроботных страниц ;)

Создание и ведение кампаний Google/Bing/Twitter/FB Ads под USA, Canada, United Kingdom and Australia ( https://searchengines.guru/ru/forum/1028286 ) + жирный линкбилдинг под бурж ( https://searchengines.guru/ru/forum/1028282 )
bogavoxnet
На сайте с 26.01.2006
Offline
165
#56
saker:
Проводил небольшой эксперимент, купил 150 ссылок с сайтов из Якаталога с разными показателями, через полтора месяца больше половины нет в индексе. По обычным индексируется ещё меньше.

Вычищаю не проиндексированные ссылки через месяц. Откуда такие цифры? Максимум 20-% для2 уровня.

Если ВВП РФ за 2019г. взять тысячарублевыми купюрами и выложить их в одну линию-ленту, то этой ленты хватит 14,3 раза от Земли до Марса!!!
pchol123
На сайте с 13.05.2007
Offline
239
#57

Прочитав всё, пришёл к выводу, что "кавычки" это самое надёжное средство проверки для уникального текста ссылки.

сеть трастовых сайтов (http://articles.sape.ru/r.5b6641ce4e.php)
T
На сайте с 23.11.2005
Offline
298
#58
mhz:


Из ~20 морд, не купил ни одной — все уже «там»…

Вопрос: это что, бульшая часть рунета уже в непоте? Или опять какие-то траблы у Яндекса, что он не может найти акцептора? Или я дурак?

Буду рад дельным ответам.

Проверил 3 свои основные морды, на одной 19 внешних ссылок - ни одной нет в непоте. На уникальную ссылку даёт морду и акцептора со словами "найден по ссылке".

Dmitry V___v
На сайте с 07.12.2006
Offline
310
#59
pchol123:
Прочитав всё, пришёл к выводу, что "кавычки" это самое надёжное средство проверки для уникального текста ссылки.

Ага. Щаз :)

Сначала расскажите тогда, как ссылка со служебными символами в анкоре будет ранжироваться? ;)

Kolyaj
На сайте с 28.03.2006
Offline
69
#60
Pall:
Сначала расскажите тогда, как ссылка со служебными символами в анкоре будет ранжироваться?

И причем здесь запрос в кавычках?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий