- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто-нибудь в курсе, на сколько хорошо у Яндекса получается вычислять сети сайтов, и по каким признакам он это делает? на сколько автоматически?
догадываюсь, что эта тема пересекается с некоторыми другими, как "фильтр афиллированных сайтов", но вопрос здесь немного другой..
Я таковые не создавал, но видно что успешно вычисляет и багит.
сети чаще всего палятся посредствами "стука", а про то как сам Я их палит, знает только он и близкие его.
Взаимная перелинковка, заимствованный контент, вычисляемые копии анкор-листов, отсутствие траста, одинаковые контакты, один хостинг и whois (как справочные факторы)...
Скорее все тяготеет уже к СДЛ, простые сетки образца 2005-2006 быстро банятся.
Что касается по стуку конкурентов - по ссылочному Яндекса это не определить сейчас...
простые сетки образца 2005-2006 быстро банятся.
Не могли бы об этом поподробнее
Сообщение от Sculptor
простые сетки образца 2005-2006 быстро банятся.
Не могли бы об этом поподробнее
На то время мало чего банилось, кроме как по стуку.
Ну если только грубая перелинковка сетки.
думаю, кроме всего прочего стоит добавить одинаковый чпу и
предполагаю, что внешние ссылки на одни и те же сайты, но это идея не проверена лично
хорошую сетку сайта не должен суметь разглядеть даже профессионал, но такие сети ОЧЕНЬ трудозатратны
с июня потерял несколько сетей сайтов... но знаете как-то интереснее стало работать
подобно тому как Яндекс победил белые каталоги, он побеждает походу и сети в нынешнем их виде
а если у меня допустим 500 сайто хостинг один, хуиз разный, контакты разные, анкор листы разные, кнтент разный, перелинковка по цепи
такое забанят?
подобно тому как Яндекс победил белые каталоги, он побеждает походу и сети в нынешнем их виде
А есть информация как он их победил? Понятно, что они перестали влиять на тиц например, но я именно о том как яндекс именно их вычислять стал универсально?
а если у меня допустим 500 сайто хостинг один, хуиз разный, контакты разные, анкор листы разные, кнтент разный, перелинковка по цепи
такое забанят?
Да забанят. :)