- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"
И правильно сделал, не находите?
Открывать/закрывать надо НЕ в роботсе, а таким образом, чтобы они были вообще недоступны.
открывайте сразу весь
Всем спасибо. Похоже, большинство мнений совпадает с моим - если все страницы оптимизированы и готовы, то открывать их можно все. Так и сделаю.
Может у кого-то есть еще опыт, которым может поделиться?
Да весь открывайте будет лучше.
лучче понемногу не тороплясь
особенно если контент не уникальний
На старом сайте добавил огромное количество сырого неуникального контента. Сначала было круто вверх, а потом круто вниз. Щас потихоньку восстанавливается тренд вверх.
Я бы выкладывал постепенно и только хорошо проработанный контент, смотрел бы как реагируют юзеры и нет ли большого % отказов.
Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.
Продолжаешь смешить людей своими соплями? :D
ТС, ни в какие сопли гугл не загонял ваши страницы. Он взял в индекс положенную норму страниц с нового сайта (все сразу он давно уже не берёт), оценил качество контента по своим меркам, принял во внимание вес этих страниц и сделал вывод сколько из них ему целесообразно держать в "оперативной памяти индекса". Если вдруг какая-то из этих страниц будет соответствовать поисковому запросу, то она появиться в выдаче, хоть на 1 месте, не смотря на то, что она "в соплях".
Не нужно бежать впереди паровоза, придёт время и он съест все 40K (что совсем не много).
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
В данном посте дан четкий ответ на Ваш вопрос о вбросе большого объема контента в индекс.
В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"
Ну и правильно сделал. Роботс вообще не панацея, а всего лишь подсказка.
Хотите что-нибудь надежно закрыть - пользуйтесь метатегом <meta name="robots" content="none"/> или его другими модификациями в зависимости от поставленных целей.