- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте 54 страницы, хотя в индекс гугла попало каким-то чудом 74 страницы. Как я понимаю виноват Drupal со своим Views, который нагнерировал кучу хлама. :confused: Буду у друпальщиков спрашивать как с этим бороться. Но даже если учесть эти лишние 20 страниц, то почему в suplemental попало так много страниц. Уник - проверял eTXT-антиплагиатом.
При этом в основном индексе всего 22 страницы, то есть меньше половины.
Почему так случилось и как бороться?
Может, говноуник?
Или таки говносайт.
или таки дубли. гугля их не лю
Скан. Проверял уникальность от 90%, в основном 98%. Знаков на ноду - не менее 2000, в основном по 4000, есть и 30-40000.
Views дублей нагенерировал - буду с ними бороться - что есть то есть. Их на данный момент и вижу как основную причину соплей.
Посещалка 0-3 хоста, хотя по моему опыту такой сайт уже должен давать хотя бы 60 хостов. Сайт запущен в конце февраля - 5 месяцев. Внутренняя перелинковка отсуствует - не успел. Дизайн - собственный, корпел неделю.
И почему страницы попадают в сопли, потому что контент не уникален? Да нет, потому что они просто не релевантны запросу, а как Вы добиваетесь этой релевантности не понятно, если в итоге у Вас контент скан, то есть оптимизации там, я так понимаю, нет, кто же в книжках и журналах что-то оптимизирует, а потом Вы заявляете это:
Внутренняя перелинковка отсуствует
ну и откуда там возьмется много релевантных нужным запросам страниц?
То есть из-за недооптимизированности контента тоже можно загреметь в suplement?
Если я когда-то найду время и пропишу релевантные тайлы, дескрипшены, набью ключами контент, организую перелинковку, разберусь с дублями, куплю немного хороших ссылочек, то фильтр снимут?
То есть из-за недооптимизированности контента тоже можно загреметь в suplement?
Если я когда-то найду время и пропишу релевантные тайлы, дескрипшены, набью ключами контент, организую перелинковку, разберусь с дублями, куплю немного хороших ссылочек, то фильтр снимут?
Да это не совсем фильтр, официального подтверждения существования соплей не существует, просто считается, что туда попадают не релевантные страницы, которые нельзя найти близко к топу по запросам, отличным от их URL.
Разумеется, если считать так, то, когда оптимизируете странички и они будут показываться по некоторым запросам, оттуда они должны пропасть. Еще видел какой-то эксперимент, человек ставил на сопливые статьи по ссылке из 10 других НЕ сопливых статей, 90% соплей перестали ими быть, одно из доказательств, что перелинковка необходима, причем правильная.
А может они попадают в сопли потому что контент надо самому писать, а не упражнять мозг где его нахаляву достать? У меня вот в сопли ничего не попадает поскольку сам пишу. И даже если эти страницы далеко от топа.
Но зато проблемы с соплями постоянно у тех кто пытается сканить и т.д. Может просто это такая нелепая случайность? Наверное во всем виноват гугл 😂