- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Сам работаю в данной тематике (сайт в профиле) - никаких проседаний нет, стабильно ПОТИХОНЬКУ растем, на сегодня 220 - 230к уников в сутки, вы должны понимать что 50 млн страниц в индексе - это палево :-) гугля смотрит на это как на спам - доры, вы не первый кто попал под этот фильтр, как писал выше могу показать с десяток таких примеров, вьетнамские братья с ДЛЕ преуспели в этом, но на таких сайтах посещалка держится 6-9 месяцев от силы, потом фильт и потеря от 70 до 90% посещалки, отличительная особенность таких сайтов - низкий показатель по просмотрам страниц, как правило 1,5 страниц на уника, что говорит о том что траф нетематический, люди не гуляют по сайту.
вообще, была тут статья про фильтры гугла:
вот топик
вот статья
Фильтр "Много страниц сразу". Суть фильтра в том, что нормальный сайт не может разрастаться слишком быстро и если у какого-то сайта число страниц увеличивается крайне быстро, то это скорее всего искусственно сгенерированный контент не достойный внимания поисковика. Некоторые считают что 5000 страниц в месяц - это предел, однако многие полагают, что эта цифра может зависеть от различных факторов. Результатом работы этого фильтра может быть помещение страницы в "опущенные результаты", а иногда в особо тяжелых случая к полному бану сайта. Если ваш сайт берет контент из открытых источников или динамически формарует страницы следите за тем, чтобы число новых страниц не превышало 5000 в месяц чтобы не попасть под действие этого фильтра. В зависимости от того насколько большой и известный у вас сайт эта цифра может варьироваться,
Многие поставят это под сомнение, но логика здесь, безусловно, присутствует. У меня есть пострадавшие знакомые с коммерческими сайтами. Генерировали описания товаров сотнями тысяч. До бана не дошло, но из индекса было выброшено и очень много качественных, написанных нанятыми англоязычными копирайтерами страниц.
Обратите внимание на варезники и торренты на DLE где установлен модуль "поисковые запросы" (это когда забиваешь запрос в гугл и в выдаче присутствует такой сайт с этим модулем. При переходе на такой сайт фигурирует анкор "название запроса") . Так вот. Это раньше давало к примеру мне - 70 000 уников в день (это секрет :) ). после, яндекс забаннил такие сайты. А сейчас видимо и Гугл.
Тут пару человек скидывали мне ссылки на забанненые сайты в январе. На всех стоял подобный модуль...
Далеко не так, там стоит не простой модуль "поисковые запросы". А специальный - новой версии, даже в паблике нет.
вас заказали!
Далеко не так, там стоит не простой модуль "поисковые запросы". А специальный - новой версии, даже в паблике нет.
Да, он там образует что-то наподобие "поисковый_запрос+поиск_внутри_сайта_с_тегом". В паблике нет...
Если всех будут косить, то кто в выдаче останется?) 🍿
Да ведь не косят всех. Не одним варезом жив интернет (это я безотносительно сайта ТС).
Почему глупо, до недавнего времени варезы не банились и приносили владельцам много трафа и денег, пока гугл не стал с ними бороться. Но банит и фильтрует он не все, а по какому признаку не понятно.
так ведь ничто не вечно под луной, тем более, что Гугл предупреждал...
ТС- дайте отгадаю, сайт варез - буржунет, на DLE + специальный модуль :-) http://www.alexa.com/siteinfo/avaxdownload.com# - и предположу что это вы, если не вы то один из ваших DLEшных побратимов, таких примеров могу привести десяток. И это совсем не связано с новым фильтром гугля.
я пробовал ставить этот модуль)...
Да ведь не косят всех. Не одним варезом жив интернет (это я безотносительно сайта ТС).
Пока не всех) Интернет не стоит на месте, хотя вряд ли будут, я уже об этом писал. Если всех варезников убрать, кого показывать?
InterMaster добавил 13.02.2011 в 00:05
я пробовал ставить этот модуль)...
ну и как, получилось выйти на показатели авакса? Или не хватило сил заливать все это по сайтам даунлоуда и лопатить с утра до вечера? 🍿
Благодарю всех за активную дискуссию.
По нашему сайту был стук, это 100%, следы его даже можно встретить на форуме вебмастеров гугла.
Вопрос только в том сколько всего было репортов и от скольких людей, что бы набралась некая критическая масса для рассмотрения и бана.
Ну и собственно интересуют основные шаблонные претензии, которыми могли спамить в репортах.
2Schoolly
Да наврятли это был стук. На форуме вебмастеров только и успевают всех сливать под эту дудочку.
Вот пример:
http://www.google.com/support/forum/p/webmasters/thread?fid=1deeb4ed3d2c478600049c3dab730de7&hl=ru
Ну ведь живет ведь? Не раз уже встречал там эту тему.
Мне кажется дело в фильтре.
Если можно, скинь в личку конкретику.