- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В яшке, раме и прочих поисковиках в индексе более 1000 страниц. В Гугле - 150.
Причем ранее была такая же проблема, но думал, что она решится путем добавления сайтмапов, как на сайт, так и в вебмастер. Сначала кол-во страниц увеличилось, потом снова откатилось до прежнего значения.
По сути в индексе страницы, на которые идут внешние ссылки, остальных нет.
Как быть в такой ситуации, не ставить же на все страницы внешние...
Кто решал аналогичную проблему? И как решил?
Страницы должны быть уникальными. Гугл работает со страницами, а Яндекс - с сайтами. Компьютеров у Гугла больше.
Страницы должны быть уникальными.
Для гугла не обязательно уникальны. Уникальность там нужна для топа.
Страницы должны быть уникальными. Гугл работает со страницами, а Яндекс - с сайтами. Компьютеров у Гугла больше.
Никогда не допускал на своем сайте неуника.
Сайт отлично ранжируется в гугле, траф идет с топовых позиций. А вот индексация ахтунг!
Chikago, а никак. Качество контента видимо. У меня на многих тысячных сайтах в гугле по 200-400 страниц всего. В то время как в яндексе и раме 1к+ и выше... Гугл не ест говнятину. :(
Pagerank nujen :)
Сайт с дублями и не уникальным контектом - десятки тысяч страниц в индексе гугла. Куча ошибок на странице. Инет магазин. В том же яндексе в пять раз меньше.
Сдается мне, что рулят какие то внешние факторы.
ТС, возможно остальные странички, находятся в дополнительном индексе Гугла.
Google имеет два индекса – основной и дополнительный.
В основной попадают «нормальные» (по мнению гугла) страницы, которые участвуют в поиске и попадают в выдачу и соответственно, высоко ранжируются.
В дополнительном индексе находятся так называемые - вспомогательные страницы, это: профили, технические страницы, создаваемые скриптами, заглушки и т.д. Плюс ко всему в дополнительный индекс Гугла отправляются страницы, содержащие контент, на который нет основных поисковых запросов. К примеру, если кто-нибудь наберет в Гугле «редкостно-экзотический запрос», то Гугл выдаст ему страницу из дополнительного индекса, если страничка этот запрос содержит. С течением обновлений страницы из дополнительного индекса удаляются по мере заполнения базы поисковой машины. Запрос, упомянутый в предыдущем абзаце, покажет вам все страницы – и основного индекса, и дополнительного.
Страницы сайта, которые «лежат» в дополнительном индексе Гугла, обычно показываются только по поисковому запросу, содержащему прямой адрес сайта, то есть его доменное имя.
Отсюда, можно предположить, что те странички, которые не в индексе Гугла, не имеют основных поисковых запросов. (Видимо это нужно Гуглу, для того, чтобы не захламлять выдачу)
Для инет-магазинов другие правила... Там какой-то свой подход.
Мне кажется, что зависит еще от конкуренции в тематики... Например у гугла уже есть миллион страниц с вашей темой, у вас он бедер 1-2...
А если в теме вашей всего 1000 страниц, он скушает еще 1000 вашего сайта...
Ну это как версия...
Пока не посмотришь сайт - ничего не сказать...
Засветите, если интересно мнение общественности ;)
Гугл не ест говнятину.
А как гугла понимает говнятина или нет, если контент написан по человечьи и уник?
Chikago добавил 30.06.2010 в 13:19
Складывается мнение, что есть особая формула индексации, т.е. не все страницы с уник текстом нравятся гуглю. Но особо любит с внешними ссылками.
Google имеет два индекса – основной и дополнительный.
Google пишет (пост Оксаны посередине страницы), что отказался от Supplemental ещё в 2007 г.
В справке Google тоже пишут, что больше не используют Дополнительный Индекс.
Полагаете, врут?