- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайтик словил Google Supplemental.
У кого есть опыт лечения от "соплей", интересуют методы, сроки.
3-й раз за день даю ссылку. :)
3-й раз за день даю ссылку. :)
Я как раз после прочтения и открыл тему :) Статья хорошая, но лекарств не нашел :(
Следует для начала найти причину или показать пациента.
Надо делать уникальный контент.
Других лекарств не бывает...
Надо делать уникальный контент.
Других лекарств не бывает...
Попробуемс, отпишим о результатах - через время конечно.
Проверено на своём опыте: уникальный контент — это обязательное, но не достаточное условие, для попадания в основной индекс. У меня все сайты наполнялись, наполняются и будут наполняться уником. Но по калькулятору на mapelli процент колеблется от 0% (2 сайта) до 85%, причем, чем больше страниц на сайте, тем сложнее загнать в main-index гугла все страницы. Вот, создаёшь 2 страницы, одна в суплементал уходит, другая в мейн индекс. Это же надо чётко анализировать страницы, бэки, а когда сайтов много и на каждом регулярно публикуется уникальный контент, то очень тяжело следить за каждой страничкой, и тем более, их переписывать..
Нашел проблемы попадания в фильтр, нечистоплотный вебмастер скопировал почти весь сайт, 21 числа скопировал, 23 я споймал фильтр. Если не удалит свои "творения" опубликую его данные (здесь зарегистрирован) и через Арбитраж сученка ну точно прижму.
dreamir добавил 19.07.2009 в 07:57
Проблема, действительно дублированный контекст, так как сайтик вора попал в индекс и "переманил" почти 3000 страниц, а наш портал получил - фильтр :) Почему Гугль не определил первоисточник - странно, но факт фактом.
Проблема, действительно дублированный контекст, так как сайтик вора попал в индекс и "переманил" почти 3000 страниц, а наш портал получил - фильтр :) Почему Гугль не определил первоисточник - странно, но факт фактом.
У меня случилась аналогичная ситуация. Несколько сайтов просто тырят с моего сайта контент и в итоге их признают первоисточниками. Я вот думаю почему такой сайт в Гугле стал первоисточником, ведь у него нет ни авторитета, ни траста (хороших ссылок 😂), которым обладает мой сайт? К тому мой сайт уже давно существует и он находится в ДМОЗ. Может Гугль в последнее время отдает предпочтение молодым сайтам с часто обновляемым контентом (читай - грабер-сайтам) ?
2dreamir:
Я не думаю что гугл "тупеет". Подожди малость, твой сайт вернется в выдачу...
NifigaSebe добавил 19.07.2009 в 11:14
2All:
Supplemental будет лечиться хорошими ссылками с трастовых ресурсов?
NifigaSebe - месяц ждал, хватит! Придется поудалять дубли, до которых руки долезут и частично попереписывать портал, новостей то всего 6 тыс :)
Automaster - у меня тоже сайтик обновляется каждый день, так сграбили, что даже тайтлы в новостях мои, уродов к лету все больше и больше. И сайту то 3 года, хоть в Дмозе нет, но посути трастовый, любая новость появляется и сразу в ТОП 1-3 влетает, сайт был прокачан на "ура".