seo_man

seo_man
Рейтинг
62
Регистрация
17.02.2007

На teh.ru описан примерный автоматический алгоритм по определению "зафильтрованности сайта".

Правда у них это касается передачи веса по позициям. Считаю что косвенно можно считать и по тиц.

Короче почитав темы с другими эксперементами пришел к выводу что те кто действовали по описанной методике со второй половины июля могут еще на что то надеятся, так как мнение большинства - ссылки после второй половины июля, август для тица еще не учтены (хотя для позиций уже работают).

Ну и как сказала Iolanta, делайте маленькую ротацию доноров.

Начал компанию недели 2-3 назад.

Сделал 1000 статей > 3000 символов.

При размножении указывал процент уникальности 30.

В статье в одних и тех же местах установил 3 ссылки на 3 разные домена.

Анкоры одинаковые.

По панели ВМ проиндексировано примерно по 500 статей. (500 ВС)

Покупал по фильтру: одна статья с одного домена 2 уровня, процент проиндексированности 50-100. Все остальной как в первом посте. На тиц донора не смотрел.

В итоге:

По одному СДЛ тиц 20-60. Но на него покупал ссылки в САПЕ.

Два других 0-0.

По первому также интересовали позиции. Так вот по продвигаемому запросу (т.е. тот который указан в статье) она просел в позициях на 30 позиций.

Резюме:

1. Что касается позиций. Очередной раз себе доказал что запрос в одной и той же форме указывать не только неэффективно, но и опасно. (Здесь можно постебаться:)) Нужно составлять максимум вариаций. Возможно от этого будет эффект.

2. Покупал статьи разом. Возможно это стало отрицательным фактором.

3. Возможно, как тут писали выше - статьи проиндексировались Яндексом но, не учлись. Хотя слабо верится.

Яндекс на самом деле был когда то хорошей ПС. Но сейчас такое ощущение что разработчики поискового двига просто отрабатывают свою зарплату. Понимаете, они ведь не могут просто сидеть и контролировать стабильную работу. Они постоянно должны что то разрабатывать.

И это что то вновь разработанное (в плане именно поиска) на самом деле делает Яндекс как ПС все непредсказуемее, т.е. хуже.

Та же региональность. Ставим регион Екатеринбург, и ищем "работа Бухгалтер". Логично ожидать что пользователю живущему в Е-бурге нужно показать вакансии для Е-бурга. В итоге в первой десятке адрес 8552.superjob.ru (хотя по идее то нужно показать 3432.superjob.ru), + все что вывелось - это вакансии для Москвы либо других городов.

Где тут региональность?

Короче я бы на месте Яндекса иногда откатывал все изменения поискового движка назад, и сдается мне если откатить на пару лет назад, то выдача по крайней мере хуже бы точно не стала, чем та что есть сейчас.

yanus:
для грубой модерации подойдут разные плагины, можно отсеивать страницы по объему текста на странице, по %-ту текста от всего html-кода, большая часть мусора отсеится.

Вы можете названия плагинов сказать?

Прочитал весь топик, подумал.

Зарегился, начал пробовать.

Насколько я понял - основная идея топика - тщательная модерация всех площадок.

И тут встает такой вопрос. Есть площадки которые выглядят вполне пристойно, есть осмысленный текст, дизайн в тему и т.д. (хотя и ежу понятно для чего делался данный сайт:))

Но на таком сайте встречаются страницы где либо список ссылок на другие страницы сайта, либо вообще пустота. Меню да продажные ссылки. Так вот, когда алгоритм Яндекса принимает решение о том какой вес передать для вашего акцептора платной ссылкой, он смотрит на данную страницу, либо в общем на весь сайт? Т.е. есть два варианта:

1. Вес для любой ВС данного сайта всегда передается один.

2. Вес передаваемый ВС рассчитывается для каждой ВС отдельно, в зависимости от многих факторов, в т.ч. и от количества осмысленного текста на данной странице.

Почему я задумался об этом. Если работает первый вариант, то задача получить 10 тица упрощается. Составляешь свой белый список доноров и тупо покупаешь ссылки с них.

Если работает второй вариант - то даже если покупать по белому списку - все равно нужно модерировать каждую страницу из этого белого списка. Естественно если сателлит один - то 40-80 страниц - не так сложно. А если сателлитов пачка - то задача усложняется в разы.

P.S. Не нашел в интерфейсе кнопок YAP и YAL. Про YAL знаю что плагин есть, но YAP то что самому руками делать?

BioDED:
А не можно ли за это бан получить в поисковиках?

Сколько пользовался обменом статьями - еще никогда бана не было.

Другое дело что сначала тиц этим обменом поднимался, а потом тема перестала работать. Но здесь вроде как уникальные тексты получаются.

Что то ТС исчезла.

Iolanta, написал Вам в личку - не отвечаете что то.

Интересует. ТС, можно методику и примеры в личку.

А то сайтов много но все нулевки.

Просто я об этом совершенно случайно узнал. Был бы какой нибудь 10 страничный сайтик, то если "вражеский" домен новый, не забаненный - то его тупо добавляют в Яндекс и мой банится за неуник. Видимо нужно по умолчанию такой редирект делать для каждого сайта.

Всего: 215