- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Коллеги, а никто не пробовал запрещать весь сайт к индексации, переписать контент на главной и после удаления открыть только главную страницу?
Имеется ввиду запретить через robots? Так он Яндексу до лампочки. На одном из сайтов поменяли контент на морде, вторую неделю ждем индексатора. Пока периодически заходит только быстроробот. А основной индексатор роется в запрещенных к индексации разделах (действительно запрещенных). Что выглядит подозрительно, так как яндексоиды всячески стараются снизить нагрузку на сервера, а тут налицо явное разбазаривание ресурсов.
Уточнение: запрещенные разделы в индексе, естественно, не появляются, тут Яндекс правила соблюдает.
Тут wolf, MiRaj писали о том, что наблюдаемые ими сайты выходили из под фильтра.
Мое имхо, основанное на одном не скажу каком факте - фильтр накладывается вручную или полу-автоматом, не зависит от внешних факторов, и ни разу, судя по всем еще не снимался.
ошибаетесь, снимался, вот в последний ап нашел у себя 3 сайта уже вышедших из под фильтра (2 сателлита, один проектик)
если руками - то у меня еще в феврале попал под фильтр промо сайт с дорогим дизайном и уникальным контентом. Ну не мог сайт стоимостью 2000$ быть детектированным руками как сателлит
Сайты нет нет возвращаются, иногда снова попадают под фильтр. Ничего в этом удивительного нет. Но чтоб каким-то методом вывести из под фильтра сайт пока такого еще не было.
У меня такое чувство, что так называемый фильтр "ты последний", ни что иное, как чистой воды МИФ! :)
Этот фильтр можно было с таким же успехом назвать, фильтр "глюк". Из-за сбоя, придумали название фильтру, и обсуждение уже доходит до 70-й страницы.
Ну улетали у меня некоторые проекты по такому принципу, но все закономерно, и понятно было, что глюк. Несколько телодвижений и все в порядке.
Ох, опять пожалуй вспомню пост г-на Вольфа:
Просто тех, кто опровергает, предпочитают не замечать. Ведь, когда дело идет не о знаниях, а о вере, человек предпочитает слышать только то, что помогает ему укрепляться в своей вере. ;)
ссылка на источник
New_Angel, Денис, что бы сейчас после твоего поста мы все здесь не выглядели лохами педальными - будь любезен опиши свои телодвижения :)
New_Angel, фильтр однозначно есть.
А вера в глюки - это не очень хорошая вера.
Мое имхо - фильтра нет. Ну или он есть, но его обойти ооочень просто, достаточно грамотно (с HTML-синтаксической точки зрения) переписать исходник, а не вставлять себе на сайт этот маразм старого верстальщика в неизменном виде. У меня 40 сайтов ПОЛНОСТЬЮ построены на статьях из всяких онлайн-сми, своих там максимум 2 странички из 10-15. Ни на одном не наблюдаю указанного занижения позиций...
Oniks, то есть твоя версия что все траблы в html-верстке? :)
Ceres, я лишь сказал, что в случае существования автоматического фильтра, обмануть его можно изменив верстку. Поскольку у всех наших СМИ контент-системы такие г**яные, что мусора вычищаешь оттуда иногда 50% от общего текста, вполне возможно, что робот считает такой "очищенный" контент уникальным. Хотя это, на мой взгляд, нелогично, т.к. верстка должна вырезаться при анализе. С другой стороны, в этом случае у пользователя появляется возможность получать одну и ту же информацию из поиска по 2 каналам - исходному, перегруженному лишними символами, и дублеру, так сказать облегченной версии...