- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вы бы сначала платонов потрясли на предмет причины фильтров, чтобы точно знать, в чем она.
Как и с какой силой их нужно трясти, чтобы узнать точную причину?
awasome опередил меня. :)
Кстати, тс, забыл написать - если проблема кроется в кол-ве знаков, то скажите, почему же все эти сайты до сих пор в выдаче?
:) я уже в течение года 4 раза полностью менял:
а) движок
б) контент (все 100%)
в) хостинг
г) НСы
д) что ещё поменять? :)
е) дважды по 1-2 месяца закрывал robots.txt
а вы говорите о 90%
но попробовать конечно стоит :) ну а вдруг?!...
Уникальность текста - понятие относительное. Уникальной может быть статья-переспам, или кривая статья, похожая на машинный текст.
Вы бы сначала платонов потрясли на предмет причины фильтров, чтобы точно знать, в чем она. Могу, если что, как пример скинуть сайт с минимальными текстами (меньше 300 знаков) на 4.5к страницах, и все в индексе.
Сам Яндекс ничего не сказал конкретного: "На решение алгоритма может оказать влияние использование поискового спама, наличие на сайте страниц, предназначенных для робота-индексатора, а не для чтения пользователями, размещение неуникальной информации и др. факторы."
---------- Добавлено 06.05.2012 в 13:14 ----------
Всем спасибо за помощь, но если просмотр самого сайта даст другие предположения по поводу фильтра - то вот ссылка: http://snotr.ru
Была такая же ситуация. Сайт 100% сдл с хорошей посещалкой из гугла. А в яндексе была только главная. Размер страниц в среднем 300 символов.
Потратил на переписку с саппортом яндекса 4 месяца, безрезультатно))
Вылечил сайт сл. образом:
Создал раздел со статьями, 20 статей по 2000 символов.
Закрыл сайт от индексации, кроме раздела со статьями и главной страницы.
Сайт вышел из под фильтра в течении 1,5 месяца, проиндексировался раздел со статьями и я открыл сайт для полной индексации. Сайт вошел полностью в индекс и прекрасно себя в нем чествует.
Платоны начали рассказывать причины, по которым сайт попадает под фильтры?
Когда я обращался в техподдержку, по поводу агс мне на следующий же день дали вполне развернутый ответ и по нему в принципе было понятно какая причина.
Когда я обращался в техподдержку, по поводу агс мне на следующий же день дали вполне развернутый ответ и по нему в принципе было понятно какая причина.
Покажите письмо
зы: Садовский не одобряет
crucified,
У Вас же на сайте просто тьма дублированного контента. В правом сайдбаре, в разделах "Лучшее видео" и "Похожее видео" весь ваш "уник" дублируется практически полностью, включая заголовок и собственно содержание. Посмотрите в Гугле - например, по первому попавшемуся запросу в кавычках "Экстримально сложные и красивые трюки" (а это, собственно, и есть весь текст описания) - выдается примерно 521 страница. И так по любому отдельно взятому "контенту" любой другой страницы. Причём, инфо в сайдбаре, насколько я понимаю, меняется динамически и рандомно, а объём сайдбарного дублированного контента раз в 10 больше, чем объём уникального содержания на той же странице. Так что при каждом новом заходе робот получает фактически полностью изменившуюся страницу, притом, изменившуюся за счёт включенного содержания других страниц.
В этой атомной каше чёрт ногу сломит, а Яндекс скажет, что не может корректно отранжировать ваши страницы (и будет прав).
Закройте весь сайдбар в ноуиндекс - и, возможно, будет вам счастье.
Покажите письмо
зы: Садовский не одобряет
К сожалению оно было удалено по сроку давности. Но суть как я помню состояла в ненужных страницах (хлам), после закрытия которого в течении 2х месяцев кол-во страниц стало расти.
Здравствуйте!
У меня есть старенький СДЛ с 2008 года, который посещают люди и наполнен нормальным, написанным мною контентом. Уже 2 года он под фильтром АГС, и как я понимаю, главная причина тому - множество страниц с контентом в 200-300 символов на страницу.
Что если запретить эти страницы для индексации? Удалять их и менять на 404 я не хочу - на них заходят люди с google и соц сетей.
Относительно 200-300 сим. на стр. - плохо, но не факт, что из-за этого ресурс попал под АГС, Такой ресурс выводить из-под АГС, уже не сложно, так как он относительно стар, но все же, нужно сделать полный рефреш (всего), работает безотказно