Определяем фильтр передачи ссылочного

1 234 5
sun99
На сайте с 12.09.2006
Offline
108
#21
rpex:

Единственно, что сейчас можно определить - это фильтр "ты последний", и то, я не уверен в этом на 100%. По запросу вида "урл сайта" сайт должен быть на 1 месте.
Если точнее, то:

url="www.site.ru" | http://www.site.ru | url="site.ru" | http://site.ru

сколько лишних букофф


Заранее оговорюсь, что реально фильтра "ты последний" в Яндексе нету, но подобный эффект достигается рядом факторов.

:D :D копирайт ваш?

космополитизм каждой голове
rpex
На сайте с 19.06.2007
Offline
112
#22
Kamchess:

Откуда подобная информация? Ребята из Яндекса сказали? ;)

Это ИМХО, поправлю пост)

Весна, Чо.
sun99
На сайте с 12.09.2006
Offline
108
#23
Kamchess:

Откуда подобная информация? Ребята из Яндекса сказали? ;)

именна

чаще заходите на 🍻

rpex
На сайте с 19.06.2007
Offline
112
#24
sun99:
сколько лишних букофф

А вы как предложите?

sun99:
:D :D копирайт ваш?

Я знаю что вы подобное писали, но я вас не цитировал :)

sun99
На сайте с 12.09.2006
Offline
108
#25
rpex:
А вы как предложите?

site.ru достаточно + глазками хлоп хлоп

если паранойя есть, то можно ещё предложение с "" и без



Я знаю что вы подобное писали, но я вас не цитировал :)

как здорово когда оптимизаторы думают 😂

kotofeich
На сайте с 25.03.2009
Offline
28
#26
rpex:
Да таких уже много, и локальных и не локальных))
Как с пультом конкурировать собираетесь?)

Да никак. Когда оптимизатора начинает душить жаба от постоянных платежей неизвестно за что, а автоматизации охото, то 🍻

Вообще собираю все интересные мысли по автоматизации и добавляю к себе.

Expert Theme (http://extheme.ru) - определение тематики любых сайтов, текстов и страниц
intraweb
На сайте с 30.09.2007
Offline
200
#27

Откуда подобная информация? Ребята из Яндекса сказали? ;)

Ребята из Яндекса сказали.

Мы стараемся не индексировать или не ранжировать высоко:

Логично предположить, что и как доноры такие сайты не ахти, тоеть фильтруются.

1. сайты, копирующие или переписывающие информацию с других ресурсов и не создающие оригинального контента,

можем преположить, что и как доноры сайты вообще без неуника плохие, зафильтрованные.

Можно это проверить посмотрев количество страниц в google соплях.

2. страницы и сайты, единственной целью которых является перенаправление пользователя на другой ресурс, автоматически («редирект») или добровольно,

тоесть логично предположить, что сайты с редиректом или просто с надписью наш сайт переехал и адрес сайта, будут зафильтрованные.

3. автоматически сгенерированный (бессмысленный) текст,

логично предположить, что и донор с генерированным текстом зафильтрован.

4. сайты с каталогами (статей, программ, предприятий и т.п.), если они являются только агрегаторами контента, не создают тексты и описания самостоятельно и не предоставляют никакого уникального сервиса,

По каталогам надо пробивать по контенту донора, если по описанию компании из каталога в Яндексе - страница донора которую хотите купить, то все нормально, если нет значит зафильтрована.

5. страницы с невидимым или слабовидимым текстом или ссылками,

Думаю ссылки с подобных сайтов фильтруются.

6. сайты, отдающие разный контент пользователям и роботам поисковых систем («клоакинг»),

Фильтруются клоакинги.

7. сайты, предоставляющие товары или информацию по партнерским программам, но не представляющие никакой ценности для пользователя,

Сайты из партнерских программ без уника фильтруются.

8. сайты, использующие обманные техники (например, вредоносный код, скрипты, настройки серверов), перенаправляющие пользователей на сторонние ресурсы или меняющие окно результатов поиска на страницы других ресурсов при переходе из поисковых систем,
сайты, основным предназначением которых является агрессивная демонстрация рекламных материалов (в том числе popup, popunder, clickunder),

Фильтруются сайты с popup, вирусами и прочей хренью.

9. сайты, содержащие списки поисковых запросов (многократное повторение и перечисление ключевых слов), предназначенные исключительно для обмана поисковой системы и манипулирования результатами ее работы, в том числе использование элементов страниц, скрывающих ключевые слова, например, посредством скроллинга или других технических приемов,
группы сайтов одного владельца/компании, предоставляющие пользователю одни и те же товары или услуги, созданные с целью заполнения нескольких позиций в результатах поиска и сбора трафика,

Тут конечно трудно сказать, но думаю ничего хорошего от таких доноров не будет.

10. немодерируемые форумы, доски объявлений, содержащие большое количество ссылочного спама,

Тут тоже фильтруются, обычно спамят порнушники.

11. сайты, ставящие внешние ссылки исключительно для обмана поисковых систем и «накачивания» релевантности и не являющиеся рекомендацией автора посетить ресурс,
сайты или группы сайтов, интенсивно ссылающиеся друг на друга («линкфармы»),
страницы сайта с результатами поиска.

Возможно сайты на которых много продажных ссылок, тоже фильтруются.

intraweb добавил 25.05.2009 в 16:05

По скачать бесплатно и порно я не правильно сказал, слова эти сами по себе хорошие, вполне на сайте новостном может быть надпись, Украниские власти стали бороться с порно в сети, или же Скачать бесплатно бизнес план предпрития. Вручную это можно спокойно пропускать.

Но имея несколько сотен доноров и поставив задачу отбросить спамные зафильтрованные доноры автоматически, думаем, кто больше всего спамит. Спамит порнография в основном, варезники, музыка и тесты всякие, нужно собрать слова из обычных спамных постов и текстов. Выявить тенденции, допустим в спамном посте десяток или двадцать раз встречается скачать бесплатно или порно, вообщем исследования конкретные не делал, но яндекс очень хорошо ловит спамные посты в форумах и письмо у него есть, типа наши роботы нашли спам на Вашем форуме, удалите или мы перестанем его индексировать.

Ну конечно тут можно просто подождать и откровенный спам яндекс сам выбросит, а нам только нужно промониторить в индексе ли страница.

Про рекламу контекстную, тоже сказал бред. Тут тоже как бы она ничего плохого не несет, но вот если сайт полностью завешен рекламой и кроме этого не имеет больше никакой ценности для пользователя, допустим сателлит из сканов книги, сделанный чисто для продажи рекламы и ссылок, то думаю фильтруется.

Создание и продвижение сайтов https://www.nabiev.net/ (https://www.nabiev.net/)
kotofeich
На сайте с 25.03.2009
Offline
28
#28
intraweb:
Откуда подобная информация? Ребята из Яндекса сказали? ;)

Ребята из Яндекса сказали.

Мы стараемся не индексировать или не ранжировать высоко:
и т.д...

Думаю эти страницы даже проверять не надо, через недельку-другую их не будет в индексе:)

intraweb
На сайте с 30.09.2007
Offline
200
#29

По сеопульту.

Механизм покупки у seopult хороший, но блин ссылки ТИЦ0-ТИЦ10 большинство, с нормальным ТИЦем, хотя бы от 100 единиц мало. Я делаю следующим образом, когда Пульт закупиться и сайт выйдет в ТОП-10, все ссылки с ТИЦ меньше 100 отключаю, и позиции остаются теми же, а мелочь в xap иду покупать. Я своих крупных клиентов передаю bdbd.ru, смотрю какие они доноры покупают, какие ТИЦы, у них большинство больше 100, 300 ТИЦ. Но и пульт понять можно - хочет побольше ссылок взять, а типа если дорогая ссылка то лучше ручками покупать, думаю такая у него логика.

Пульт теоретически определяет спамные страницы, контролирует чтобы все в Яндексе были. В этом деле ребята молодцы.

А вот некоторые купленные ссылки и большое количество анкоров одинаковых, на молодых сайтах плохо работают, на старом сайте не вопрос купил кучу мелких ссылок и поехал в ТОП. Молодому сайту нужны морды и хорошие мощные с ТИЦем с PR ссылки, и такое ощущение, что не биржевые.

По инструментарию для ссылочного.

Думаю все оптимизаторы если покупают ссылки, или статьи на биржах, кстати дохлые статьи не лучше дохлых ссылок. Вообщем грубо говоря проверяют доноры на передачу ссылочного, я думаю хотели бы иметь в идеале два инструмента.

1 инструмент. Программа для автоматической закупки ссылок недорогих. Сейчас лучшим инструментом, который я видел есть seopult но опять же есть куда еще улучшать систему. Во первых подключить нужно биржи xap, биржы статей, тот seozavr, liex.

2 инструмент. Программа для ручного получения/покупки ссылок и статей.

А вот тут с инструментами плоховато. Нужно сделать систему которая определяла бы качество площадки в вероятностном отношение хотя бы.

Что сейчас делаю я, какие инструменты использую.

1. Самый основной инструмент, это мои глаза. Открываю сайт, смотрю если нахожу ценность какую то в нем то смотрю дальше.

2. Стараюсь брать с хорошими показателями, и проверяю ТИЦ, PR, ЯК, склейку в http://ip-whois.net/analysis.php

3. Проверяю наличие фильтра, вирусов, количество Внешних и Внутренних ссылок и индексации страницы и ссылок с нее в seolib.ru.

4. Проверяю наличие в выдаче по запросу со страницы донора.

5. Для себя еще проверяю на xtool.ru, хотя бы чтобы он показывал больше 2.

Если бы был сервис который сам бы за меня все это делал было бы круто, даже пусть не сам, а с моей помощью, даже будет круто если это будет плагин к браузеру. Можно даже https://addons.mozilla.org/ru/firefox/addon/8680 усовершенствовать.

kotofeich
На сайте с 25.03.2009
Offline
28
#30
intraweb:
Ну это да, вот видите мы тоже заинтересованы в том чтобы в Яндексе не было спама.😂

ага, когда продвигаем сайты то мы против спама, а когда продаем места с площадок, то любую фигню можно сувать на саттелиты и потом удивляться "за что же нас забанили"😂

1 234 5

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий