- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Возможно ли как-то простимулировать индексацию сайта с большим количеством страниц? Вопрос качается любого поисковика.
Предположим, есть сайт по продаже... ну мобильного контента.
300 моделей телефонов, при выборе любой модели меняется title всех страниц и получаем:
на сайте 500 страниц с играми на каждой странице по 10 игр, 500*300*10=1500000.
Примерно та же ситуация с другими разделами, получаем много миллионов страниц.
И тут после некоторого застоя за сайт взялся оптимизатор;) поменял очень много всего на страницах и как теперь простимулировать переиндексацию такого количества страниц?
google map сделал, скормил.
а для других?
Возможно ли как-то простимулировать индексацию сайта с большим количеством страниц? Вопрос качается любого поисковика.
Предположим, есть сайт по продаже... ну мобильного контента.
300 моделей телефонов, при выборе любой модели меняется title всех страниц и получаем:
на сайте 500 страниц с играми на каждой странице по 10 игр, 500*300*10=1500000.
Примерно та же ситуация с другими разделами, получаем много миллионов страниц.
И тут после некоторого застоя за сайт взялся оптимизатор поменял очень много всего на страницах и как теперь простимулировать переиндексацию такого количества страниц?
google map сделал, скормил.
а для других?
Поставьте хотя бы по одной внешней ссылке на каждую страницу. Также не забывайте о внутренней перелинковке.
на сайте 500 страниц с играми на каждой странице по 10 игр, 500*300*10=1500000.
Это для каждой модели?
Поставьте хотя бы по одной внешней ссылке на каждую страницу. Также не забывайте о внутренней перелинковке.
на 4 000 000 (миллиона) страниц по 1 внешней? 😮
этож я всю жизнь свою на это потрачу, перелинковка есть, смысл в том что произошли изменения в коде сайта которыя я бы хотел продемонстрировать поисковым машинам. Внешние ссылки явно не подходят как метод в данном случае
Поставьте хотя бы по одной внешней ссылке на каждую страницу
То есть, много миллионов ссылок?:)
mutant, Вы никак не заставите поисковик проиндексировать все. И не пытайтесь - работайте над важными страницами. Плюс перелинковка. Если я все правильно понимаю, то Ваша цель - привлечение пользователей, а не полная и окончательная индексация...
на 4 000 000 (миллиона) страниц по 1 внешней?
этож я всю жизнь свою на это потрачу,
Подумайте хорошенько и не придется тратить всю жизнь.
что произошли изменения в коде сайта которыя я бы хотел продемонстрировать поисковым машинам
Изменились урлы? Гугль советует 301-й редирект. Вероятно, это и будет самое правильное решение. Яндекс, правда, при 301-м не передаст тиц (народ и в ссылочном сомневается). Мне кажется, если изменились урлы на 4 млн страниц, то самое разумное - поддерживать обе версии, постепенно переклеивая все на новую
Изменились урлы?
Урлы нет, только координально поменян код страниц.
Урлы нет, только координально поменян код страниц.
Такого опыта у меня нет. Гипотетически - нужно просто ждать
на сайте 500 страниц с играми на каждой странице по 10 игр, 500*300*10=1500000.
Не знаю, откуда вы возьмете человеческого контента на миллион страниц. Но при таком объеме не то что робот - пользователь упарится что-то найти. Имхо надо разбивать на несколько десятков (сотен) поддоменов/доменов