- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Разработчик, :) Всего навсего, 🙄 ;)
По теме, много услуг и информации по тематике, что же делать 😕___:)
Мои наблюдения сводятся к тому что более пристальное внимание начинается в зависимости не от количества страниц в индексе а от трафика на данный сайт из Яндекса.
Как минимум это точно касается каталогов сайтов. Еще 1,5-2 года назад несколько каталогов при достижении трафа более 5000 были моментом забанены за причины найденные чисто вручную. А после возвращения из бана трафик с Яндекса так больше никогда и не превысил отметки 1000 уников не смотря на наличие в индексе более 200.000 страниц (Платон санкции отрицает)
Мне тоже кажется, что кол-во страниц влияет очень скромно, слишком много исключений видел, когда сидят себе спокойно каталоги и с 150 000 страниц, а так же, когда их банили при 75 страниц в индексе.
у меня на сайте 55к, сайт новостной.
Все пока путем..
не в количестве страниц счастье, а в их качестве...
Сайты обычно делаются одним человеком примерно по одной методике.
А по закону больших чисел стук пойдет примерно при достижении определенного трафика.
Отсюда и проблемы возникают примерно в одно и тоже время.
Учите матстат и тсп и за идеями сразу станет вмден механизм реальных процессов.
Мои наблюдения сводятся к тому что более пристальное внимание начинается в зависимости не от количества страниц в индексе а от трафика на данный сайт из Яндекса.
Как минимум это точно касается каталогов сайтов. Еще 1,5-2 года назад несколько каталогов при достижении трафа более 5000 были моментом забанены за причины найденные чисто вручную. А после возвращения из бана трафик с Яндекса так больше никогда и не превысил отметки 1000 уников не смотря на наличие в индексе более 200.000 страниц (Платон санкции отрицает)
а как по вашему яндекс определяет количество трафика с него на данный сайт? ему это невозможно отследить...
Я думаю что количество страниц влияет на бан так или иначе, если это просто никчемный сайт плодящий бесчисленное множество ненужных страниц это сигнал для яндекса и яндекс его забанит. Вероятно есть некая цифра, после которой яндекс начинает пристально отслеживать кандидатов в бан. Может это даже и названная в 20К, почему не 10К не 3К, да потому что сотношение сайтов и страниц на этих сайтах в рунете вероятнее всего происходит по экспоненте. Т.е. сайтов с количеством страниц в 10К гораздо больше чем 20К, а соответственно выявить из меньшего числа кандидатов проще, тем более если это делает модератор. Это как найти полного преступника, по приметам, в толпе людей гораздо проще, чем найти худого по тем же приметам:)
а как по вашему яндекс определяет количество трафика с него на данный сайт? ему это невозможно отследить...
😮
А это тогда зачем: onclick="w(this,'80.22.82','84=88');"
а как по вашему яндекс определяет количество трафика с него на данный сайт? ему это невозможно отследить...
Я думаю что количество страниц влияет на бан так или иначе ...
Я же говорю, были прецеденты, когда банили несколько сайтов у которых в индексе было 1-75 страниц, трафф на них был нулевой вообще.
Я думаю тут все в комплексе, IP, DNS, WHIOS инфа, схожесть контента и т.п.
У меня СМИ http://www.chelport.ru - более 60000 страниц, пока никто не банил.
Ну вопрос не в том, что при достижении 20к всех банят.. Топикстартер предполагает, что при достижении 20к страниц в базе, у модератора звенит специальный звоночек - "проверь сайт на вшивость". И если сайт поганенький, его банят. Нельзя ведь просмотреть все сайты индекса глазами модераторов.
Честно говоря, я не вижу смысла определять точную цифру, потому как ее могут изменить, да и скорее всего оценка идет по многим параметрам.
Так что лучше всего делать просто нормальные сайты.