- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Влияют, но параллельно еще и сайты крошат, а зачастую под окрошку попадают и вполне хорошие белые проекты :)
А, можно посмотреть на эти белые проекты? Может быть и не такие уж и белые...
Впрочем, абсолютный факт состоит в том, что алгоритмы Яндекса действительно ошибаются.
Откуда статистика про зачастотность, кстати? :)
Влияют, но параллельно еще и сайты крошат, а зачастую под окрошку попадают и вполне хорошие белые проекты
Дык, скажите спасибо тем, против кого создаются эти фильтры. А то часто получается, что одной рукой гадят, а потом возмущаются, что борьба с этим загаживаением бьёт по другой руке, которая типа вся чистая...
Дык, скажите спасибо тем, против кого создаются эти фильтры. А то часто получается, что одной рукой гадят, а потом возмущаются, что борьба с этим загаживаением бьёт по другой руке, которая типа вся чистая...
Дело в том, что определенный процент веб-мастеров (у меня складывается ощущение, что достаточно большой) не понимают, что делают говносайты. Контент 100 раз уже дублированный, дизайн никакой, юзабилити просто ужас и т.д. Зачастую это просто бесполезные сайты для сбора какого-то аморфного трафика. Но, т.к. на сайте нет ссылочного спама или иного спама - они считают сайт белым и пушистым. И после прогона по каталогам, когда сайт выпадает из выдачи, начинают ругать последними словами Яндекс. И зовут Гугл зачем-то.
суть проблемы:
десяток магазинов - каждый позиционировался по своим (непересекающимся) ключевикам и группам товаров, общего только контактный телефон, находились на 15-19 позициях - остался один (и как обычно самый бесполезный :) )
второй десяток магазинов - у каждого магазина было свое уникальное описание товаров (заказывали специально у журналистов), общего - skype & icq, телефоны и адреса (города) разные - остался один.
это что, ручной бан? (но ведь они в топе не были - не уж то ручной стук по 2-й - 3-й страницам)
автоматический бан? (из-за нескольких символов nic&uin)
или же ищет урл http://www.icq.com/whitepages/cmd.php?uin=номерок и по нему работает - но то имхо анриел.
P.S. дизайны магазинов уникальные (заказывались), тексты уникальные заказывались, клонов пока нет, разбивка была в первом случае по товарам, во втором по регионам.
Что думать?
Дело в том, что определенный процент веб-мастеров (у меня складывается ощущение, что достаточно большой) не понимают, что делают говносайты. Контент 100 раз уже дублированный, дизайн никакой, юзабилити просто ужас и т.д. Зачастую это просто бесполезные сайты для сбора какого-то аморфного трафика. Но, т.к. на сайте нет ссылочного спама или иного спама - они считают сайт белым и пушистым. И после прогона по каталогам, когда сайт выпадает из выдачи, начинают ругать последними словами Яндекс. И зовут Гугл зачем-то.
Полезность сайта, все-таки, определяется полезностью информации, которую он содержит, потому дизайн и юзабилити дело не первое. А с информацией совсем непросто. Полезная информация остается уникальной до первой индексации, а иногда и не успевает проиндексироваться на источнике. Так что, на мой взгляд, проблема не в том, что вебмастера не знают что делают, а в совсем в других людях, которые как раз знают, что делают и чем занимаются, запуская различные грабилки в сеть.
Дело в том, что определенный процент веб-мастеров (у меня складывается ощущение, что достаточно большой) не понимают, что делают говносайты. Контент 100 раз уже дублированный, дизайн никакой, юзабилити просто ужас и т.д. Зачастую это просто бесполезные сайты для сбора какого-то аморфного трафика. Но, т.к. на сайте нет ссылочного спама или иного спама - они считают сайт белым и пушистым. И после прогона по каталогам, когда сайт выпадает из выдачи, начинают ругать последними словами Яндекс. И зовут Гугл зачем-то.
Такими я уже давно не занимаюсь, на данный момент у меня в работе 3 своих сайта и бюджет на каждый около 1к капусты, надеюсь вы понимаете что тут "говносайтами" не пахнет?
суть проблемы:
десяток магазинов - каждый позиционировался по своим (непересекающимся) ключевикам и группам товаров, общего только контактный телефон, находились на 15-19 позициях - остался один (и как обычно самый бесполезный :) )
второй десяток магазинов - у каждого магазина было свое уникальное описание товаров (заказывали специально у журналистов), общего - skype & icq, телефоны и адреса (города) разные - остался один.
это что, ручной бан? (но ведь они в топе не были - не уж то ручной стук по 2-й - 3-й страницам)
автоматический бан? (из-за нескольких символов nic&uin)
или же ищет урл http://www.icq.com/whitepages/cmd.php?uin=номерок и по нему работает - но то имхо анриел.
P.S. дизайны магазинов уникальные (заказывались), тексты уникальные заказывались, клонов пока нет, разбивка была в первом случае по товарам, во втором по регионам.
Что думать?
Думать то, что Яндекс очередной раз разразился еще одним тупым фильтром, он в последнее время работает ломом а не головой.
Я бы на вашем месте сделал дубли на новых доменах закрытых приват персон, на разных хостингах, с разными контактными данными. (ждать возвращения сайтов бесполезно в 99% только время потеряете)
решили купить новые домены.
оставить для индексирования только главную и разделы, подразделы, конечные страницы и сервисные страницы делать на ajax, вероятно добавим на каждый уникальный FAQ по представленным товарам, и реальные тестимони (защита от автофильтра); разные контакты - операторы повесятся с кучей асек :) , купить пока на каждый магазин по мобильному (защита от стука)
при таким варианте теряем нч и часть сч (будем пытаться текстами потом вернуть), дополнительные расходы.
Может кто менее радикальный способ может предложить?
чуть опоздал - писатель опередил :)
Такими я уже давно не занимаюсь, на данный момент у меня в работе 3 своих сайта и бюджет на каждый около 1к капусты, надеюсь вы понимаете что тут "говносайтами" не пахнет?
Они попали под какой-то фильтр Яндекса?
Они попали под какой-то фильтр Яндекса?
У хорошего знакомого аналогичные сайты попали, а на мои нет, они еще не готовы (в смысле не сделаны до конца и в индексе их тоже пока нет) просто.