- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем доброго дня.
Один из двух сайтов мне удалось реабилитировать в глазах Гугла.
Трафик частично вернулся. Все страницы, присутствующие в файле sitemap.xml, благополучно попали в индекс.
Со вторым всё намного сложнее. Примерно 840 страниц из 5660 имеют статус: Просканирована, но пока не проиндексирована.
Пытался изучить такие страницы - на предмет технических ошибок, а также, объективно, с точки зрения полезности, переспама, возможного дублирования контента.
Однозначно ничего сказать не могу.
Единственное, в чём убеждён из личного опыта. Если такое большое количество страниц будет и дальше исключаться, трафика с Гугла не видать.
Всегда ли такие страницы Гугл считает недостаточно качественными, то есть они, в настоящий момент, не могут ранжироваться ни по одному ключевику?
Может ли быть причина в том, что они собирают мало трафика и поэтому не успевают закешироваться? Отсюда более высокая скорость загрузки по сравнению с остальными?
Кто сталкивался с аналогичной проблемой, каким образом решали?
не проиндексирована
не могут ранжироваться
вот ответ
а проблема скорее всего в тупом копипасте
а проблема скорее всего в тупом копипасте
Володь, спасибо за ответ.
С прошедшим праздником.
Контент я не краду. Возможно, что Гугл признал страницы неоригинальными, бесполезными.
Но на фоне просканированных, опять-таки, на мой взгляд, они не хуже, не лучше.
С прошедшим праздником.
новый год уже давно был, ты как-то запоздал)) но все равно спасибо
---------- Добавлено 24.02.2020 в 17:56 ----------
Контент я не краду. Возможно, что Гугл признал страницы неоригинальными, бесполезными.
Но на фоне просканированных, опять-таки, на мой взгляд, они не хуже, не лучше.
а что на этих страницах ? текст есть ? вообще коммерц или инфо ?
а что на этих страницах ? текст есть ? вообще коммерц или инфо ?
Инфо. Женский сайт. Лайфхака много. Картинок нет нигде. Только текст)
---------- Добавлено 24.02.2020 в 20:26 ----------
Многие страницы находятся в органике Гугла по url.
Однако, они не имеют сохранённую копию.
404. That’s an error.
Буду ждать. Другого решения не вижу.
Разрешите задать вот такой вопрос.
Если, допустим, на сайте есть 5600 постов.
Они кэшируются по мере их посещения реальными людьми.
Предположим, что примерно за 3 дня в кэш попало 5000 страниц.
Таким образом, на 600 постов, в течение этих 3 дней, трафика не было.
Робот совершил переобход и решил исключить из выдачи 600 адресов только по причине того, что они не закэшировались, то есть были намного менее производительными, чем остальные.
Имеет ли место исключительно такая ситуация?
Разрешите задать вот такой вопрос.
Если, допустим, на сайте есть 5600 постов.
Они кэшируются по мере их посещения реальными людьми.
Предположим, что примерно за 3 дня в кэш попало 5000 страниц.
Таким образом, на 600 постов, в течение этих 3 дней, трафика не было.
Робот совершил переобход и решил исключить из выдачи 600 адресов только по причине того, что они не закэшировались, то есть были намного менее производительными, чем остальные.
Имеет ли место исключительно такая ситуация?
Аналогичная проблема. Сайт информационный, рукописные статьи. Небольшой, меньше ста страниц. Был трафик 60/40 из Яндекса и Гугла. Все посты были в индексе, но в январе стали выпадать. Страница просканирована, но не проиндексирована.
Вы как-то справились? Всё-таки почти год прошёл.)