- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну собственно года полтора назад я держал ресурс на котором было контента где то 50к страниц, из них соответственно гугль за месяца 3-4 проиндексиролвал только в районе 7к страниц и дальше встал как вкопанный не шел далее и все тут. Потом, я забросил ресурс и перестал им заниматься, во общем он умер :)
Это предыстория такая, сейчас ведется работа над сайтом контента в котором в разы больше, как ситуация изменилась или нет, за сколько гугль проиндексирует 100к страниц и более. Как можно этому поспособствовать (очень быстрой индексации в полном объеме большого количества страниц), может выносить каждую статью на поддомены?
Забл сказать, контент был англоязычным.
Контент уникальный? Судя по количеству страниц, возникших сразу, мне кажется это партнерский шоп ;)
По поводу вопроса....
чтобы гугл
Я бы не рекомендовал вам
Контент уникальный? Судя по количеству страниц, возникших сразу, мне кажется это партнерский шоп ;)
По поводу вопроса....
чтобы гугл нужны хорошие входящие ссылки, с пиаристых ресурсов, сквозняки, карта сайта, если страниц много, то карта разделов сайта. Имеет смысл ставить ссылки на внутренние страницы....
Я бы не рекомендовал вам ;) , развивайтесь постепенно, тогда не будет вот этого ...
Да контент уникален
На счет развития, дак а как я могу постепенно если контента в куча будет выкладываться, я почему и спросил.
Судя из вашего поста не чего не поменялось по сути, беки беки беки... начнеться болезнь беклинка :)
А что скажите на счет идеи размещения на поддоменах статей? Мне кажеться это как то должно помочь делу. Разместил статью пинганул ее на поддомене. Конечно в первую очередь интресует на сколько от этого пострадает количество трафика, если на поодоменах будет ли его меньше или больше, у кого есть опыт поделитесь.
Это не шоп, текст полноценный.
Судя из вашего поста не чего не поменялось по сути, беки беки беки... начнеться болезнь беклинка :)
А как иначе? В том или ином варианте беки, карта сайта....
Т.е. Вы хотите для каждой отдельной статьи свой отдельный поддомен? 😮 Я не понимаю смысла... Поделитесь, в чем идея, спалите тему.. ;)
да причем тут тема, смысл весь в том чтоб гугль все индексировал быстро. Допустим у вас есть 10000 статей вы их размещаете на одно домене, за скольк оно проиндексируеться? За 5 месяцев или больше? При условии что беков кроме пинга практически нет и не может быть по логике гугля много. А если есть у вас поддомен кторый гугль считает за отдельный сайт пропингованый ... за сколько они проиндексируются, такие мини сайты имеющие от 3-100 страниц?
Меня больше интересует вопрос на сколько в данном случае упадет трафик или вырастет.
У меня на новый сайт при правильном подходе гугл ел до 100 страниц в минуту. что приводило к тому что сайт на 50К страниц съедался за 2-3 дня после появления в сети.
Потом в индекс выходило около 20-30К страниц, и все это только на каталожных ссылках.
На поддоменах тут получше. Если домен раскрученый, то поддомен улетает в индекс быстро и и сидит там хорошо. так например из поддомена со 150К неуникального (!) контента в индекс вошло 110К и несет людям радость.
Главное чтобы на каждой странице сайта был уникальный контент для сайта.
Как ускорить индексацию? Идеального рецепта я не знаю, но скажу свой.
1. Сайт должен быть простой для роботов. Все страницы находились в 2-3х кликах от главной, не больше 100 ссылок на странице. Очень сильная перелинковка на самых глубоких страницах.
2. прогон по каталогам сразу.
3. несколько сильных ссылок на внутрянку.
4. гугглемап не пользую.
Для ускорения приделать рсс, если реально.
- Сделать аккаунт в гугл вебмастер https://www.google.com/webmasters/tools
- Сделать карту сайта
- Добавить карту в гугл вебмастер, обычно если сайтмапа большая через пару дней можно зайти и в вебмастере будет возможность выбора быстрой скорости доступа гугл бота к сайту.
+ нормальная перелинковка и регистрация в нормальных каталогах
Как можно этому поспособствовать (очень быстрой индексации в полном объеме большого количества страниц)
Повесить эдсенс и нагнать трафика на страницы.
сделать карту xml и повесить её в вебмастерсе.
может выносить каждую статью на поддомены?
Зачем?
Повесить эдсенс и нагнать трафика на страницы.
Никогда размещение adsense на сайте не влияло на индексацию сайта! А уж тем более не ускоряло ее... не говорите ерунды :) Там абсолютно разные боты, и разные базы....
Но Вы правы лишь в том, что бот Google Mediapartners гораздо быстрее своиих коллег, которые шерстят обычные сайты. Но на индексацию сайта это никоим образом не влияет !!!
Mishlen, экспериментируйте ещё)
Карта сайта, пиаристые ссылки, правильная перелинковка, конечно же, играет важную роль, но, ИМХО, гораздо важнее, для многостраничных сайтов, правильно отдавать дату изменения страниц сайта (last-modified) и соответственно обрабатывать if-modified-since .
При правильной обработке if-modified-since, роботам не придется по много раз скачивать одну и ту же страницу и анализировать ее, что реально способствует более быстрой индексации оставшихся страниц.