- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Имеется сайт, довольно таки крупный специализированный портал. Решили им более серьезно заняться в плане поисковой оптимизации и оптимизации в целом.
Посещаемость у сайта порядка 10 тыс. уников в сутки.
Траффик основной: 31% яндекс, 28% гугл, 15% закладки.
По данным вебмастер.яндекс.ру - загружено роботом почти 2 млн. страниц, в поиске только 140 тыс. страниц. Подскажите - нормально ли это?
К чему оптимально надо стремиться - чтобы как можно больше страниц было в индексе, или наоборот пусть будет меньше страниц, да качественее?
Какие основные методы моэно использовать в данном случае для достижения основной цели - увеличение поискового траффика?
По данным вебмастер.яндекс.ру - загружено роботом почти 2 млн. страниц, в поиске только 140 тыс. страниц. Подскажите - нормально ли это?
Конечно это мало, как минимум в поиске должно быть 10% от загруженных(высчитал 20 порталам). Вообще конечно зависит от тематики: у новостных сайтов всегда выше(~50%), у объявлений - меньше.
К чему оптимально надо стремиться - чтобы как можно больше страниц было в индексе, или наоборот пусть будет меньше страниц, да качественее?
Однозначно стремиться надо к большому индексу, для порталов важен НЧ трафик.
Какие основные методы моэно использовать в данном случае для достижения основной цели - увеличение поискового траффика?
внутренняя перелинковка, для большого индекса и внутренняя оптимизация для нч трафика
или наоборот пусть будет меньше страниц, да качественее?
Пусть будет больше да качественнее
Какие основные методы моэно использовать в данном случае для достижения основной цели - увеличение поискового траффика?
Добавить в ЯК, DMOZ, взять топ по ВЧ в своем регионе.
Очевидно, что мало уникального контента, вот и не все страницы в поиске
По данным вебмастер.яндекс.ру - загружено роботом почти 2 млн. страниц, в поиске только 140 тыс. страниц. Подскажите - нормально ли это?
Да, это нормально, это практически предел Яндекса для обычных сайтов/порталов, большая индексация возможна только у тех, кому это Яндекс "разрешит".
Конечно это мало, как минимум в поиске должно быть 10% от загруженных(высчитал 20 порталам). Вообще конечно зависит от тематики: у новостных сайтов всегда выше(~50%), у объявлений - меньше.
Не надо писать бред.
Я фигурирую реальными данными из вебмастера, а не домыслами, как futuristian
Я фигурирую реальными данными из вебмастера, а не домыслами, как futuristian
То есть, Вы напрочь отметаете теорию о ручной модерации сайтов, достигших предельного количества страниц в индексе?
Dimank, ещё есть мнение, что для индексации большого количества страниц, сайту нужен определённый статвес, то есть внешние ссылки.
У меня предел 7-10 тысяч страниц практически без внешних ссылок (с 4-х закладочников).
И контент страниц тоже важен: объявления очень плохо держятся с индексе, рерайченные новости - тоже недолго.
То есть, Вы напрочь отметаете теорию о ручной модерации сайтов, достигших предельного количества страниц в индексе?
безусловно, все что касается ручной модерации индексации и выдачи считаю невозможной задачей для интернета (ассесоры не считаются).
То есть, Вы напрочь отметаете теорию о ручной модерации сайтов, достигших предельного количества страниц в индексе?
Развитие поисковиков идет в сторону увеличения автоматизации максимального количества процессов и уменьшения "ручного" труда, поэтому я в такую теорию не верю, хотя возможно есть алгоритм, который чем-то подобным занимается, раз уж вебмастера начали говорить о таких наблюдениях.
Как думаете, в настоящее время какой процент от ответа Платонов, это ответы реальных людей, а не бота? ;)
ни раз читал, что когда в индексе яндекса больше страниц, чем в гугле, это плохо и многие сеошники ссылки с таких сайтов не покупают... у меня такая ситуация, всегда в гугле было больше страниц, максимальный был лимит 27 тыс.страниц, после расколбаса, в индексе осталось 10500 страниц!
сегодня в яндексе увеличился ТИЦ с 70 до 110, и количество страниц в индексе до 16000! то есть теперь у меня яшей больше проиндексировано, хотя трафик в основном с гугла, в 4 раза больше, такое ощущение, что гугл выплюнул все сопли, оставил основные страницы... 10500 держится уже где-то недели 2...
вопрос, насколько плохо, что яша больше заиндексировала?
вопрос, насколько плохо, что яша больше заиндексировала?
Яндекс проиндексировал! Нужно делать внутреннюю оптимизацию, закрывать все что не нужно. Что бы лишняк не попадал в индекс, а не надеется, что ПС отберет что нужно а что нет.