- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, коллеги!
Сегодня у нас в офисе возник вопрос. Будем продвигать под google.com 1 сайт, он только с программистского станка.
Я хочу открыть его весь сразу целиком для Гугла (около 40 000 страниц), а альтернативное мнение коллеги в том, чтобы открывать его лавинообразно 1-я неделя 100 стр, вторая неделя 1000 стр, третья неделя 10000 стр. и т.д.
Недавно открывал похожий сайт, в той же тематике, тоже новый но постепенно, как и говорил коллега. С ним произошло следующее: Гугл просканировал весь сайт несмотря на роботс, загнал все страницы в сопли, а оставил только 50 полезных страниц из 150 открытых + каждый день выкидывает по 2000 страниц из результатов. После этого сайт плохо индексируется, добавляю и пингую новые страницы, они не попадают в индекс уже дней 5.
Особенность сайта: Контент уникализирован, страницы между собой похожи.
Поделитесь мнениями пожалуйста, стоит открыть его сразу весь или таки дергать Гугл по 1000 страниц в неделю?
Может такой некачественный контент вообще не открывать?
Нет, контент там для людей. Просто особенность его такая, как ни крути, похож на соседние страницы...
А вы хотели напарсить и все чтобы в индексе было? :)
---------- Добавлено 30.07.2013 в 19:52 ----------
Просто особенность его такая, как ни крути, похож на соседние страницы...
зачем похожие делать?
Я хочу открыть его весь сразу целиком для Гугла (около 40 000 страниц), а альтернативное мнение коллеги в том, чтобы открывать его лавинообразно 1-я неделя 100 стр, вторая неделя 1000 стр, третья неделя 10000 стр. и т.д.?
Насколько я знаю, фильтр за резкий рост числа страниц вроде бы не действует. Хотя никакими официальными данными об его отмене (впрочем, как и о введении) не располагаю.
В любом случае Гугол не просканирует 40 тысяч страниц нового сайта одновременно. Поэтому имеет смысл поступить так:
- открыть штук 100...200 страниц и посмотреть на их судьбу (это займет минимум недели три для нового домена);
- если они массово отправляются в "сопли", то нет смысла искушать судьбу и открывать остальные - лучше их переработать с учетом обнаруженных ошибок;
- потом сделать "контрольный вброс" новых страниц и также отследить их судьбу;
- если все нормально, то можно открывать уже тысячами.
Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.
А вы хотели напарсить и все чтобы в индексе было? :)
Парсинг парсингу рознь...
зачем похожие делать?
Это не суть, людям удобно будет.
Подскажите лучше как открыть к индексации сразу все или частями?
У меня схожая ситуация. Гугл схавал сразу все 60 000 страниц, в основном тлоько 564 (количество в течении 2-х месяцев росло постепенно с 200).
И действительно, например, у меня 5600 результатов олимпийских игр - по сути все страницы однотипны и ничего тут не придумаешь. Не подменять же результаты билибирдой. В других разделах также.
Подскажите лучше как открыть к индексации сразу все или частями?
по мне так без разницы.
Насколько я знаю, фильтр за резкий рост числа страниц вроде бы не действует. Хотя никакими официальными данными об его отмене (впрочем, как и о введении) не располагаю.
В любом случае Гугол не просканирует 40 тысяч страниц нового сайта одновременно. Поэтому имеет смысл поступить так:
- открыть штук 100...200 страниц и посмотреть на их судьбу (это займет минимум недели три для нового домена);
- если они массово отправляются в "сопли", то нет смысла искушать судьбу и открывать остальные - лучше их переработать с учетом обнаруженных ошибок;
- потом сделать "контрольный вброс" новых страниц и также отследить их судьбу;
- если все нормально, то можно открывать уже тысячами.
Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"
Мне, кажется, он в любом случае отправил бы большинство однотипных страниц в сопли, оставив какую-то часть в основном. Я смотрел по нескольким сайтам справочным - что у них в соплях что в основном, и моё предположение подтвердилось. Но это в моей тематике.
Мне, кажется, он в любом случае отправил бы большинство однотипных страниц в сопли, оставив какую-то часть в основном. Я смотрел по нескольким сайтам справочным - что у них в соплях что в основном, и моё предположение подтвердилось. Но это в моей тематике.
Спасибо, и правда стоит посмотреть на результаты сайтов-справочников в нашей тематике