- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер, не могу понять причину слабой индексации в гугле. Сайту уже четыре месяца, яндекс проиндексировал 70.000 страниц а гугл ведет себя совсем не понятно. Сканирует сайт без проблем по пару тысяч страниц в день, но при поиске проиндексированных страниц выдает все время разное. При запросе site:сайт в правом верхнем углу пишет
то так - Результаты 1 - 100 из приблизительно 1 860,
то так - Результаты 1 - 100 из приблизительно 1 240,
то так - Результаты 1 - 100 из приблизительно 918,
а реально при пролистывании страниц в нижней части гугла, получается то 365, то 387, то 352. что это значит? попал под фильтр или что?
даже если он еще и в песочнице все равно индексироваться должен без ущемлений
сайт висит на российском хостинге в питере на вип аккаунте с выделенным ip адресом, внутренних ссылок сократил до 85, внешние вообще убрал, никаких попандеров и кликандеров нет, движек DLE, PR=4, sitemap.xml имеется, ключевые слова только те которые присутствуют в тексте, title и description настроены по рекомендациям, плотность ключевых слов не превышают допустимых 5-7%, похожих страниц в гугле нет, шаблон уникальный, контент выдернут с разных сайтов. Так-же имеется каталог сайтов через редирект с проверкой обратных ссылок. В чем может быть проблема? кто сталкивался с аналогичным?
Я тоже не понимаю Google. В плане проиндексированных страниц то же что и на вашем сайте...при проверке количества результат скачет с каждым нажатием... Кроме того сайту уже через месяц существования дали PR 4, а позо-вчера (т.е. прошло всего 3 недели с того момента) дали только PR 3, хотя по сути он обновляется не чаще чем раз в 3 месяца. + ко всему сайт по всем признакам угодил в песочницу, но это нормально.
Аналогичная ситуация, яндекс индексирует в 10 раз больше страничек, чем гугл, sitemap.xml не помогает, видимо нужны бэки на все странички сайта, не зря дорвейщики спамят доры картами ;)
P.S. Можно еще здесь проверить на сопли ...
сервис полное Г :)
введите yandex.ru и всё поймёте
Аналогичная ситуация, яндекс индексирует в 10 раз больше страничек, чем гугл, sitemap.xml не помогает, видимо нужны бэки на все странички сайта, не зря дорвейщики спамят доры картами ;)
P.S. Можно еще здесь проверить на сопли ...
Этот сервис палёный вообще. Он качество самого Google показывает 12%, так что верить ему не стоит.
Аналогичная ситуация, яндекс индексирует в 10 раз больше страничек, чем гугл, sitemap.xml не помогает, видимо нужны бэки на все странички сайта, не зря дорвейщики спамят доры картами ;)
P.S. Можно еще здесь проверить на сопли ...
ну даже и там показывает -
В индексе гугла 1750 страниц сайта ***
Из них в основном индексе 736 страниц;
В дополнительном индексе 1014 страниц.
Качество сайта *** 42%
Замечательный результат- Гугл сайт уважает.
хоть сервис и г, саплиментал индекс еще никто не отменял.
а у вас что, все эти тыщщи страниц такие хорошие?
у меня по большинству выпасаемых сайтов в гоше падало кол-во проиндексированных страниц с нового года по середину марта. думаю, что это оптимизация расходов на вычислительные ресурсы.
смотрите точки входа. у не интернет-магазина их и не должно быть много.
Аналогичная ситуация, яндекс индексирует в 10 раз больше страничек, чем гугл, sitemap.xml не помогает, видимо нужны бэки на все странички сайта, не зря дорвейщики спамят доры картами ;)
P.S. Можно еще здесь проверить на сопли ...
только что проверил снова и вот что получается-
В индексе гугла 1130 страниц сайта ****
Из них в основном индексе 736 страниц;
В дополнительном индексе 394 страниц.
Качество сайта **** 65%
Ваш сайт- образец качественности материалов.
это типа ваш сайт такой хороший но индексировать по полной мы его не будем :)
маразм какой-то 🔥
страницы все разные но аналогичные, на тему кино
куда все остальные страницы деваются? в среднем по 2.500 в сутки просматривает