- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, имеется большой сайт, он предоставляет информацию о физ, юр. лицах, ИП и т.д.
Всего более 10 миллионов страниц, из них Яндексом загруженно - 5,5 в поиске - 4,5 миллиона. Гугл же реагирует гораздо хуже, в списке проиндексированных 960к страниц. Хотя по статистике индексирует в среднем по 190к страниц в день.
Создавались динамические блоки внутренней перелинковки, сайтмапы по разным категориям, для каждой карточки генерировались шаблонные тексты с базовой информацией.
Вопрос следующий, как улучшить индексацию сайта, чтобы как минимум выравнять кол-во страниц в Яндексе и Гугле?
Скорее всего, на сайте много дублей. Посмотрите в Яндекс.Вебмастере, какой миллион страниц он исключил. Возможно, в реальности их там гораздо больше миллиона, вот Гугл их и не индексирует.
Скорее всего, на сайте много дублей. Посмотрите в Яндекс.Вебмастере, какой миллион страниц он исключил. Возможно, в реальности их там гораздо больше миллиона, вот Гугл их и не индексирует.
Прошу прощения, всего 33 миллиона страниц.
Почти все страницы имеют несколько вкладок, на которых располагается информация только по подписке, соответственно робот ее не видит и если заходить по прямой ссылке, дальше его редиректит на страницу входа в личный кабинет. Вот такие страницы он выплевывает из индекса.
Остальные как "недостаточно качественные".
Может есть смысл закрыть в роботсе от индексации страницы, не несущие пользы людям?
Вот такие страницы он выплевывает из индекса.
Их надо закрыть через роботс, чтобы он туда вообще не заходил. Ну и, соответственно, смотрите, что там у вас за недостаточно качественные - вот они и мешают Гуглу индексировать сайт.
Купить 2-3 мощных сквозняка.
Добрый день, имеется большой сайт, он предоставляет информацию о физ, юр. лицах, ИП и т.д.
а чем сайт налоговой хуже? ;)
Хуже тем, что трафик достается не ТС.
робот ее не видит и если заходить по прямой ссылке, дальше его редиректит на страницу входа в личный кабинет
Ну и какой это % HTTP-обращений бота?
Ну и какой это % HTTP-обращений бота?
я знаю несколько сайтов, где подобные обращение робота составляют больше 70% - с индексацией у них жопа полная
Ну и какой это % HTTP-обращений бота?
Ты просто не умеешь правильно настраивать индексацию(
Хуже тем, что трафик достается не ТС.
Ну и какой это % HTTP-обращений бота?
Процент не смотрел, но с учетом того что с основной страницы ссылки стоят на другие "закрытые" вкладки, думаю немалый.
---------- Добавлено 06.07.2017 в 21:56 ----------
Ты просто не умеешь правильно настраивать индексацию(
Слава богу такого ужаса не наблюдаем у себя 😂, но все равно, всем спасибо за советы, пробежались по сайту, нашли косяки, будем лечить, надеюсь страницы полезут в индекс.