- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день,
Некоторое время назад, наверное с пару месяцев, стал замечать что количество страниц в индексе гугла по моим сайтам стало снижаться. И продолжает снижаться. Т.е. раньше если на сайте несколько К страниц, то они почти все в индексе Яши и Гугла, а теперь в Яше постепенно растет, а в Гугле падает.
Сайты - нормальные СДЛ-ы. Расположены на двух хостингах. Открываются быстро. В вебмастерке никаких сигналов.
Для продвижения закупаю вечные ссылки и понемногу обновляю контент.
Кто-нибудь наблюдал подобное явление? Или может догадываетесь о его причинах?
И еще вопрос. Что значит "Количество проиндексированных URL" для раздела Sitemap в вебмастерке гугла?
Например, у меня у одного сайта в индексе яши 7000 страниц, в индексе гугла 200, а в "Проиндексированных урл" 2000. Как это понимать?
У всех повылетало. Гугл базу чистит. Во всяком случаи я наблюдаю снижение индекса по всем моим сайтам и еще где то по 200 -300 точно. Сейчас по моим наблюдениям вылет страниц из индекса закончился.
А есть мысли как обратно загнать в индекс все страницы сайта?
Думаю, что 100% страниц загнать будет трудно. Возможно нужна максимальная уникальность контента и тп. Но для инет магазинов,например, трудно уникализировать описания товаров. Как я понял, смысл в том что гугл решил оставить минимум самых важных ( уникальных?) страниц на сайтах, за счет чего увеличить скорость работы гугла и снизить нагрузку на сервера. Пока у них еще все не устаканилось. Есть смысл подождать 1 -2 недели и потом уже пытаться понять что гуглу в данных страницах не нравится.