- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт содержит несколько десятков тысяч страниц, поэтому, как ни старайся, но в одном клике от главной их все не разместишь. Реально у меня получилось так, что основная масса страниц находится на третьем клике от главной. Sitemap создан и Гугловскую рекламу на все страницы вешал, но тем не менее, пока что сайт проиндексирован не полностью.
Поиск по форуму показал, что одним из способов увеличения полноты индексации является получение внешних ссылок с сайтов с высоким ПР (одного-двух семерочников). В этой связи возникает несколько вопросов к тем, кто уже использовал этот способ:
1. Годится ли для этой цели ссылка с англоязычного сайта, если мой сайт на русском (и в зоне .ru)?
2. На какое время потребуются пиаристые внешние ссылки?
3. Накачка ПР не является целью. А если так, то, может быть, подойдут и недорогие ссылки с сайта, на котором уже много исходящих ссылок (под сотню)?
Насколько зная, на время пока робот при индексировании страниц с высоким ПР не проиндексируем все страницы Вашего сайта думаю нет, но надо стараться чтоб ссылки были быстро доступные.
Заведите АКИ на жирных (ПРых и посещаемых) социалках и прогоните страницы, которые сидят глубже 4 кликов, не 1, а 100 если есть, при чем, между всеми страницами 4 уровня путь 2+ страницы.
Kirik, а если > 50К страниц то как их в индекс загнать?
уже больше 2-х месяцев только 200 страниц в индексе :(
Сделайте несколько страниц Карта сайта, на каждой до 100 ссылок. Чтобы не делать их 500, сделайте их многоуровневыми, то есть Карты сайта ссылаются на Карты сайта, а те уже на материал. Прогоните сайтмапы по закладкам. Хороший сервис в подписи.
Также прогоните по закладкам выборочно страницы и обязательно сделайте хорошую перелинковку, чтобы Гугл как зашел к вам так и бродил пока все не увидет:)
Не забывайте про сплоги и другие виды саттелитов, которые просто обязаны ссылаться на ваши внутренние страницы. Саттелиты можно делать на поддоменах, если с главного домена на них не ссылатся, то ему вреда не будет, даже если вы там доры будете разводить. Так сделайте на поддоменах с десяток сплогов, прогоните их по закладкам, и в новых постов ссылайтесь на свои новые страницы, потом ссылки подтирайте, чтобы избежать бана саттелита. Если вы сделаете саттелиты регулярно наполняемые, то при наличии нормального списка пинг сервисов, индексироватся они будут в течении нескольких дней (обычно 24 часа максимум).
Так вот можно ускорить и углубить индексацию вашего сайта.
Kirik, а если > 50К страниц то как их в индекс загнать?
уже больше 2-х месяцев только 200 страниц в индексе :(
Ситуация немного хуже уже пол-года в индексе 169 страниц из >1000 :(
Перепробовал много методов, в т.ч. размещение ссылок на непроиндексированные страницы в блогах.
Самое смешное, что страница блога индексируется в течении суток, а робот по ссылке не приходит 😡
вот, что я заметил: форум и сайт были с динамическими адресами в индексе было около 30к страниц, после глобального переделывания сайта и форума на чпу в индексе уже 15 к страниц, но зато они реально все показываются проиндексироваными.
кроме этого сайтмап XML или просто HTML ?
Я сделал скрипт, отслеживающий роботов. Как полагаете, если на данную страницу робот уже зашел хотя бы один раз, то она уже проиндексирована?
Попробуйте купить пару хорошо индексируемых сквозняков и договоритесь чтобы ссылки подтягивались из файла на разные внутряки + сделайте внутреннюю перелинковку(related article).
Я сделал скрипт, отслеживающий роботов. Как полагаете, если на данную страницу робот уже зашел хотя бы один раз, то она уже проиндексирована?
Полагаю, что нет. Легко проверить, по количеству проиндексированых ссылок после захода робота.