- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Mirrrorr, при наложении фильтра АГС-17 Яндекс не лишает вебмастеров возможности исправиться. Остающиеся в индексе 10 страниц - это форточка, в которую со времнем сможет влезть весь сайт. Без участия Платона. Только для ГС это форточка закрыта...
Mirrrorr, при наложении фильтра АГС-17 Яндекс не лишает вебмастеров возможности исправиться. Остающиеся в индексе 10 страниц - это форточка, в которую со времнем сможет влезть весь сайт. Без участия Платона. Только для ГС это форточка закрыта...
Хорошо, что хоть окошечко оставили)
Проголосовал на третий вариант.
Считаю что это один из самых оптимальных способов вывода сайта из под фильтра.
Таким же способом избавлялся от "ты последний".
Вставлю пять копеек. Смотрю по своим площадкам и понимаю, что:
1. Походу фильтр работает более менее вменяемо. Большая часть проблем у меня на WP. В индексе остались по большей части агрегирующие страницы: категории, теги (это правда, там пользователю проще всего найти информацию). Пока закрыл это дело в роботс будем посмотреть.
2. Ссылки продажные до 2 штук на странице вообще не влияют
3. Мат возможно, но пока не доказано.
4. Ссылки на внутренние - не вижу подтверждений по своим площадкам
5. Движок (возможно, самописы пока вроде живы)
6. Уникальный контент - не факт. Копипастовые магазины под партнерки висят в индексе. (уникализация мешап)
7. А вот за дубли страниц похоже дают по шапке. Возраст домена тоже не играет. Молодые живы, старые выпали...
Теперь предлагаю немного подумать, по какому критерию можно отличить ГС от нормального сайта пускай и сделаного не СЕОшником, а обычным пользователем?
1. Уникальность статей - нет. У меня есть масса знакомых которые просто занимаются копированием новостей (правда индекс их не заботит, но они там)
2. Качество текста - нет. Школьник тоже организм и имеет право быть найденым
3. Продажные ссылки - да. На ГС их будет много. Очень много. Реально много. Делаем вывод, жадность это плохо.
4. Движок. Точнее даже не движок, а его специфическая модель настройки. Большая часть из нас настраивает площадки одинаково, быстро и массово. Причем по возможности пытаясь увеличить страничную массу (см. первый пункт выводов)
5. Дизайн - нет.
6. Внешние ссылки - нет. Точнее совсем не обязательно. Есть ряд людей пишущих для 3-4 человек помимо себя и вполне счастливы, также для региональных ресурсов большое количество беков тоже слабо возможно.
7. Перелинковка - возможно.
8. Регулярность обновлений (автосайты) - да.
Вот такие мысли возникли.
Вставлю пять копеек
Из 15 пунктов один (последний) более или менее вменяемый, все остальное - пурга. Ряд пунктов вообще рассматривать глупо.
Кто еще думает, что Яндекс занимается определением движка, рассматриванием дизайна, составлением схем перелинковки страниц (это какие же мощности нужны, чтобы на каждый сайт вести такое "досье"!)? Думаю, что для подобных обсуждений нужно создать отдельный топик - в Курилке.
это какие же мощности нужны, чтобы на каждый сайт вести такое "досье"!)?
Не такие уж и большие. Выщемление продажных ссылок, основных движков и хеша дизайна не очень дорогие операции, а по перелинковке, контенту и картинкам так они и так это считают (считали) для поиска... Внешние ссылки тоже учитываются при поисковом анализе (соответственно базовые настройки подобные фидбернеру, счетчикам и т.д. выщемляются на 1,2,3)
На данный момент вижу, что в выдаче по большей части WP остались категории и теги (на тех площадках где контента много, а их мало). Также вижу внутренние страницы на которые были внешние ссылки. (при этом ЖЖ, ли.ру, блогспот и прочие фрихосты не учитываются).
А вот за дубли страниц похоже дают по шапке. Возраст домена тоже не играет.
Весьма вероятно. Есть сайт, возраст больше года, на нуклеусе (особенность движка – на автомате штампуются дубли), вылетело все кроме главной.
Выщемление ... основных движков и хеша дизайна не очень дорогие операции
А оно им надо? Для десятков миллионов сайтов вычислять движок и дизайн? Ради чего? Что дизайн или движок влияют на полезность содержимого?
по перелинковке ... они и так это считают
Но не в том виде, в каком Вы предполагаете, уверяю.
На данный момент вижу
Я на данный момент вижу, что у меня на всех сайтах разное количество разделов, на одних есть форум, на других - нет, некоторые сайты вылетели, некоторые нет. И что? Какие я из этого должен делать выводы?
Совершенно согласен с dekus.
Я вообще считаю, что самое главное - это чувство меры.
По поводу, как выйти из под АГС-17... Ждите. Если б Вас сильно беспокоил кнтент ичто его могут разорвать, то Вы б не светили сайт на форуме. Так что нечего даже тут говорить.
Какие я из этого должен делать выводы?
Как минимум можно опубликовать информацию здесь и попробовать проанализировать что происходит. Я по своим площадкам инфу выложил. Если это сделают еще пара десятков человек можно попробовать составить картину. При учете того, что фильтр работает на совокупности факторов по другому не выйдет. Я вот вижу у себя большую зависимость от дублей (этого в теме вроде небыло). А что видите вы?