- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
День добрый!
Возникла такая беда: раскручиваю проект с очень большим каталогом товаров. В каталоге 300 тысяч страниц. Гугл начал индексировать его вроде бы успешно: проиндексировал около 50 тысяч. Но потом начало творится что-то непонятное: количество страниц в индексе то уменьшалось до 30 тысяч, то увеличивалось до 40. В конце концов в индексе осталось 6 тысяч страниц, и их количество продолжает уменьшаться. Сайт в сети уже около 4ех месяцев.
Также с первых мест повылетали все основные ключевые слова.
Я не могу понять в чем причина такого поведения Гугла. После последнего апа PR главной увеличился на 2 пункта. В Google Webmaster показывает, что все в порядке. Ни в каких сомнительных каталогах не регистрировался. Ссылками меняюсь только с тематическими ресурсами. Дорвеи, клоакинг и прочую дрянь не юзаю.
Поможет ли создание полной xml-карты сайта (6 файлов по 50к урлов, объединеных индексным файлом)? Если поможет, то подскажите, где можно сгенерировать карту с большим количеством урлов?
Помогите советом, очень прошу!
Гугл считает большинство страниц Вашего сайта нечеткими копиями. Если есть страницы для печати, запретите их в robots.txt.
уникализировать вряд ли удастся.
Нечеткие копии? Если честно, никогда о таком понятии не слышал.
Что касается уникализации, то я знаю несколько подобных проектов. Гуглом в них проиндексировано порядка 160.000 страниц, оформленных подобным образом, что и у меня - и все в порядке.
Какие ещё возможны причины? Может быть кто-то продублировал мой контент? Как Гугл банит за это? Хотя какой там контент: наименование товара, да стандартное описание к нему.
Насколько я знаю, песочница Гугла так не работает: она снижает выдаче в SERP, а не выкидывает из индекса. Кто-нибудь ещё может что-нибудь подсказать???
Такая же беда. Сайту более двух лет.
Уменьшение количество страниц и падение ключевиков, случайно началось не в первых числах августа?
П.С. могу предположить что проблема в резком увеличении количества страниц.
2fed
Да, где-то с начала августа количество проиндексированных страниц начало падать.
Количество страниц не увеличивалось, их как было 300.000, так и осталось.
Как пишет "tutonhamon_" - Гугл учит терпению!
Будем ждать.
П.С. пока жду, прикупил трастовых ссылок, если будут результаты сообщу.
Вы добавляли карту сайта в панель вебмастера гугля?
2Илья Алексеевич
Да, карту добавлял, но маленькую, буквально 15 урлов, до 2го уровня. Все эти урлы проиндексированы. Полную карту на 300.000 я не генерировал. Вы считаете, что это поможет?
2fed
Спасибо, буду ждать новостей.
2fed
Да, где-то с начала августа количество проиндексированных страниц начало падать.
Количество страниц не увеличивалось, их как было 300.000, так и осталось.
А как давно был создан сайт? И как быстро было увеличено количество страниц?
svtim добавил 18.08.2008 в 17:38
А как давно был создан сайт? И как быстро было увеличено количество страниц?
Тема в соседней ветке - /ru/forum/257903
Следует обратить внимание на пункт:
Слишком много страниц за раз ... если за раз на сайте появится 5000 страниц - то можно попасть под фильтр. Тогда этим страницам будет присвоен статус Omitted Results
Тогда этим страницам будет присвоен статус Omitted Results
Это вообще не факт, да и оммитед накладывается не за кучу новых... скорее даже за кучу старых
Генерирую полную карту сайта на 300.000 страниц с помощью тулзы GSiteCrawler 1.23 уже работает 4 часа, а не прошла и пятой части. Может кто-нибудь знает способ побыстрее? Гугл предлагает питоновский скрипт, но мой сервер его не поддерживает, а сам я его установить к сожалению не могу. Да и не факт, что через этот скрипт будет быстрее и не положу сервер.
Сайт был создан около 4ех месяцев назад, каталог добавлен через 2 недели после выхода сайта в свет. Но насчет фильтров согласен с svift. Я никогда не слышал о том, чтобы за большое количество страниц можно было попасть в немилость.