- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Число страниц на сайте растет примерно на 100 стр. в месяц. Общ объем сейчас 6000. Но по данным Google Search Console число страниц снижается:
2/3 страниц проходят по номинации " Страница просканирована, но пока не проиндексирована " (4 69 тыс.):
На самом многие страницы в этом перечне таки проиндеrсированы. И Google их находит. Хотя проиндексировано явно не все
Прямой поиск в Google site:https://allgid.ru дает "Обнаружено примерно 1420 стр."
По большей части исключения приходятся на позицию:
Все эти страницы идут с пометкой "Страница проиндексирована, но ее нет в файле Sitemap". Но в sitemap.xml они все, конечно же, есть. И сам sitemap.xml заглатывается без проблем:
Указанное "Предупреждение" относится к микроразметке Shema.org и я так понимаю вряд ли это как-то связано с индексацией и вопросом нахождения sitemap.xml.
Что это все значит?
Это просто глюки Search Console и к реальной индексации не относится, или это надо как-то пытаться победить. И если надо: то как это сделать?
Да, SC дико глючит, тормозит, у системы не хватает ресурсов на всё. Так ему "всего" и не надо - это вы должны систему убедить, что контент чем-то лучше того, чем уже забиты индексы.
Используйте все доступные средства: ссылки, рекламу, соцсети, придумывайте УТП, допиливайте контент. Альтернативы уже нету, будет только жёстче.
Что это все значит?
Это просто глюки Search Console и к реальной индексации не относится, или это надо как-то пытаться победить. И если надо: то как это сделать?
это не глюки , он выплевывает по его мнению страницы низкого качества , а трафик вам дается на страницы в индексе ( и по этому там рост )
6к страниц и 30 кликов это как бы провал миссии
Гугл - парень простой. Есть на страницу трафик - хороший URL, надо брать. Не интересен он никому - ну и ладушки.
Да, SC дико глючит, тормозит, у системы не хватает ресурсов на всё. Так ему "всего" и не надо - это вы должны систему убедить, что контент чем-то лучше того, чем уже забиты индексы.
Используйте все доступные средства: ссылки, рекламу, соцсети, придумывайте УТП, допиливайте контент. Альтернативы уже нету, будет только жёстче.
Спасибо за ответ. Но вопрос " Гугл - парень простой. Есть на страницу трафик - хороший" имеется ввиду трафик с Google Поиск (т. е. заходы с Источником трафика google Organic в терминах ГуглоАналитики) или трафик вообще. Включая прямые заходы. Любой трафик зафиксированный счетчиком Гугла?
Есть на страницу трафик - хороший" имеется ввиду трафик с Google Поиск (т. е. заходы с Источником трафика google Organic в терминах ГуглоАналитики) или трафик вообще. Включая прямые заходы. Любой трафик зафиксированный счетчиком Гугла?
Однозначно ответить нельзя. Я думаю, что любой, но предпочтительнее тот, который Гугл может отслеживать. Есть корреляции между наиболее посещаемыми страницами и ранжированием, а также приоритетностью разделов в рамках сайта.
Ну для примера: на сайт студии, занимающейся озвучкой рекламы идёт воистину конский трафик по запросам "Кто озвучивал бэтмена", "чей голос в фильме..." и т.п. Вот по таким ключам Гугл сайт и ранжирует в итоге, а не по продвигаемым запросам, связанным с услугами. Нецелевая аудитория буквально затаптывает "денежный" раздел - Гугл считает его неважным.
Это же может сказываться и на техничке: если у Гугла есть основания считать какую-то техническую или убитую страничку важной (туда есть траф, ссылки и т.п.) - будет рогами и копытами упираться, но не деиндексировать, несмотря на прямые запреты и увещевания.
Поковыряйте логи за период примерно в квартал, там многое можно обнаружить хотя бы как намёк на толстые обстоятельства.
Любой трафик зафиксированный счетчиком Гугла?
да любой, с более менее нормальными параметрами ( боты не прокатят )
Ну эт смотря какие боты... Если скажем c натуральным открытием барузера (Selenium допустим), эмуляцией нормальных ПФ - время, scroll-page, clicks и т. п. Понятно, смена user-agent, proxie, cookies и се такое... Впалне может и проканать. Сейчас хороший инструмент появился проверки адекватности бота - Яндекс.Метрика зовется. Понятно что Гугл по своему смотрит, а яша по своему, но общий-то принципы отсева ботов примерно одни. Иной вопрос, отлаживать это лучше не на целовом сайте, а на чем-нибудь левом-запасном от греха
Ну эт смотря какие боты... Если скажем c натуральным открытием барузера (Selenium допустим), эмуляцией нормальных ПФ - время, scroll-page, clicks и т. п. Понятно, смена user-agent, proxie, cookies и се такое... Впалне может и проканать.
Ну так не канает же. Выглядит так, что значение имеют только живые подтвержденные аккаунты, которые Гугл знает. Генеренные профили даже с историей уже никакого влияния на ранж не оказывают. Я только легенды слышал, что кто-то там как-то в Гугле добился ботами. Примеров в реале - нету. Сколько ни экспериментировал сам - по нулям. Даже с акками в Гугле.
Ну так не канает же. Выглядит так, что значение имеют только живые подтвержденные аккаунты, которые Гугл знает. Генеренные профили даже с историей уже никакого влияния на ранж не оказывают. Я только легенды слышал, что кто-то там как-то в Гугле добился ботами. Примеров в реале - нету. Сколько ни экспериментировал сам - по нулям. Даже с акками в Гугле.
"Даже с акками в Гугле. " От это уже странно...
Ну ok, спасибо за консультацию
Ну эт смотря какие боты... Если скажем c натуральным открытием барузера (Selenium допустим), эмуляцией нормальных ПФ - время, scroll-page, clicks и т. п. Понятно, смена user-agent, proxie, cookies и се такое... Впалне может и проканать. Сейчас хороший инструмент появился проверки адекватности бота - Яндекс.Метрика зовется. Понятно что Гугл по своему смотрит, а яша по своему, но общий-то принципы отсева ботов примерно одни. Иной вопрос, отлаживать это лучше не на целовом сайте, а на чем-нибудь левом-запасном от греха
Я только легенды слышал, что кто-то там как-то в Гугле добился ботами