- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Почему у меня в Яндексе число проиндексированных страниц примерно совпадает с тем что имеется на моем сайте в виде статей и страниц, а в поисковой системе Гугл проиндексированных материалов чуть больше, как я понял это нормальное явление или нет – вроде используется один и тот же метод отброса ненужных материалов в виде robots.txt, а индекс формируется по-разному.
Заранее спасибо за ответы!
Что мешает сравнить страницы в индексе, религия? :p
Что мешает сравнить страницы в индексе, религия? :p
Я понимаю на что Вы намекаете :), но хотелось бы узнать мнение или возможный опыт других людей и может в этой разнице и нет ничего такого и можно на это не обращать внимания.
вроде используется один и тот же метод отброса ненужных материалов в виде robots.txt, а индекс формируется по-разному.
Для Гугла надо запрещать не через robots.txt - https://support.google.com/webmasters/answer/7424835?hl=ru
Если вы хотите строго запретить индексирование страницы, используйте метатег robots со значением noindex или HTTP-заголовок X-Robots-Tag. В этом случае не следует блокировать доступ к странице в файле robots.txt, поскольку робот Google должен просканировать ее, чтобы обнаружить тег и выполнить директиву.
Также недавно была статья про директиву Noindex в robots.txt /ru/news/2011639 - можете попробовать, я не проверял.
Хотел еще спросить – разница в 1000-2000 страниц это много или не очень, например, в Яндексе у меня примерно 4000 страниц что примерно соответствует правде, а в Гугл 5000 страниц, что не очень совпадает.
Ну смотря с чем сравнивать. Бывает, что 90% проиндексированных страниц - это дубли. Так что у вас всё не так плохо. Но и хорошего тоже в этом ничего нет.
Хотел еще спросить – разница в 1000-2000 страниц это много или не очень, например, в Яндексе у меня примерно 4000 страниц что примерно соответствует правде, а в Гугл 5000 страниц, что не очень совпадает.
У вас почти нет разницы проиндексипованых страниц в Гугле и Яндексе. У меня по началу разница 15-30% проинлексированых страниц