- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Давно уже известно, что банятся сайты с одинаковым дизайном, вёрсткой и на одном ip.
Нужно делать разную вёрстку, разносить на разные хостинги и данные владельцев разные делать(хотя бы скрывать)
Так в том то и проблема, что не все сайты то банятся, а только те с которых идет траф. Если бы он все за раз мочил, то и вопросов то бы не возникало. Так что, то что нужно делать разные дизайны и разные IP - полная ерунда, все зависит именно от сайта.
А вот как это Яндекс на автомате умудряется за один раз очистить индекс от говна, вот это загадка. Причем вопрос именно в том, почему единовременно и с определенной периодичностью, как будьто руками, либо в ручную какой то спец. скрипт по удалению говна запускают. Но почему этот скипт не удаляет малопроиндексированные сайты, и почему он не может все время работать, а работате только в периоды большого расколбаса?
Я же сайты запускаю постепенно, вот если бы он так же постепенно их банил, вообще бы проблем не было, у меня то тоже все на автомате делается :)
MSV2, Прибаньте Корбину и Мту Интел на хостинге, пусть ацессоры юзают Оперу турбо :) В чём проблема ?
службу асессоров никто не отменял.
Они то тут причем. Вроде ж другими делами занимаются.
Solo_by добавил 28.03.2011 в 16:01
А вот как это Яндекс на автомате умудряется за один раз очистить индекс от говна, вот это загадка. Причем вопрос именно в том, почему единовременно и с определенной периодичностью, как будьто руками, либо в ручную какой то спец. скрипт по удалению говна запускают. Но почему этот скипт не удаляет малопроиндексированные сайты, и почему он не может все время работать, а работате только в периоды большого расколбаса?
Да это всегда так было. Типа такая банилка. Помню 3го марта вроде того года круто все побанило)) Может врубают на время более сложные и ресурсоемкие алгоритмы. Может запускают в выдачу стадо индийских обезьян для ручной фильтрации, никто точно не скажет.
Сайт то не один, а несколько десятков. Все банятся в один момент (ну кроме тех, которые пока слабо проиндексированы), если бы он набирал какую то статистику, то сайты бы банились постепенно.
Информация о сайтах, их взаимосвязях, поведенческом факторе и других составляющих, которые алгоритмы яндекса учитывают, не является постоянной и меняется непрерывно. Поэтому, вполне логично брать выборку базы данных на какое то число и с ней работать.
Все Ваши сайты, которые набрали критичный порог для фильтра на момент выборки попадают под фильтр. После этого, новая выборка с изменившимися условиями, в том числе, для остальных Ваших сайтов.
Постоянно может идти обновление базы данных с апдейта до апдейта. Во время апдейта база корректируется с учетом результатов расчетов. После этого еще один или несколько упрощенных просчетов для коррекции не стыковок, которые возникают из-за применения результатов расчетов к изменившейся, с момента выборки, базе данных. Последнее, правда неочевидно.
Все это мое мнение.
Так в том то и проблема, что не все сайты то банятся, а только те с которых идет траф. Если бы он все за раз мочил, то и вопросов то бы не возникало. Так что, то что нужно делать разные дизайны и разные IP - полная ерунда, все зависит именно от сайта.
Такая же фигня...только не с дорами, а с оптимизированными ГСами под НЧ. Как только в индексе появляется почти весь сайт (2-3 апа) и начинает идти траф по НЧ (около 500 уников), то через день-два бан.
=================
А где шла речь о белом сайте?
Так в том то и проблема, что не все сайты то банятся, а только те с которых идет траф.
Поведенческие? :)
Давно уже известно, что это глупость.
Мои 200 сайтов на одном аккаунте хостинга (соответственно на одном ip) на одинаковом движке, с ОДИНАКОВЫМ дизайном отлично сидят в индексе. Ну либо я один на миллион счастливчик.
Просто у тебя все 200 сайтов по НЧ с сотней показов в месяц торчат в конце топ20, вот и сидят в индексе.
Они то тут причем. Вроде ж другими делами занимаются.
какими такими другими, как не оценкой выдачи?
=================
А где шла речь о белом сайте?
Я имел ввиду, что яндекс до определенного момента не может сразу же отличить белый сайт от ГС.
MSV2 добавил 28.03.2011 в 21:21
Такая же фигня...только не с дорами, а с оптимизированными ГСами под НЧ. Как только в индексе появляется почти весь сайт (2-3 апа) и начинает идти траф по НЧ (около 500 уников), то через день-два бан.
У меня тоже не доры, а именно ГС под НЧ. Только вот траф с каждого в среднем около 100 уников в сутки и живут они 1-2 месяца.
какими такими другими, как не оценкой выдачи?
Мне всегда казалось, что они подбирают эталонную выборку, но никак не занимаются ручной фильтрацией выдачи. Не правильно казалось?