- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет, помогите понять.
Наблюдаю несколько дней следующую картину, количество ссылок в sitemap.xlm - 1262. Загружено роботом 526 в поиске 86.
Кто знает, объясните, почему робот грузит не все страницы из sitemap.xml, и в течении какого времени примерно он загружает все полностью?
И еще: сегодня обнаружил в поиске вместо 39 страниц уже 86, и это хорошо, но в течении дня 86 больше не изменилось ни в + ни в -, значит ли это, что яндекс сделал свое дело и надо ждать следующего АПа, т.е. на 526 он признал к выдаче в поиск только 86 страниц?
Спасибо.
Sitemap.xml — лишь помощник. Основной критерий для добавления страниц в индекс ПС — это прямые внутренние ссылки на страницах сайта.
Sitemap.xml — лишь помощник. Основной критерий для добавления страниц в индекс ПС — это прямые внутренние ссылки на страницах сайта.
Что такое прямые внутренние ?
Я всегда ещё делаю карту сайта html, вроде неплохо помогает, хотя ходят разные мнения по этому поводу...
Так все же, почему количество загруженных страниц отличается от количества страниц в карте?
Причин много как бы может быть. как вариант:
1. битые ссылки
2. робот просто не успел все проиндексировать
3. страницы доступны только после авторизации
4. медленный сервер хоста из за которого роот получает в ответ 404
5. робот посчитал страницы дублями, такое часто бывает с инет-магазинами, например
1. битые ссылки - Что такое битые ссылки?
2. робот просто не успел все проиндексировать - сколько примерно времени уходит на это?
3. страницы доступны только после авторизации - это исключено.
4. медленный сервер хоста из за которого робот получает в ответ 404 - а сколько повремени должен быть ответ удовл.яндекс?
5. робот посчитал страницы дублями, такое часто бывает с инет-магазинами, например - да у меня инет магаз, я как раз в предыдущем сайтмэпе боролся с ними. В этом дублей не нашел.
Что такое прямые внутренние ?
Это значит, что должны быть ссылки (а не только формы поиска) на категории/подкатегории/товары. Если в вашем магазине можно найти товар только отметив что-то галочками или выбрать из списка — страницы проиндексированы не будут.
brainiac - спасибо вам.
а не подскажите к быть в моем случае.
У меня магазин на joomla + virtuemart, всплывающее меню сделано на java, т.е. товар можно найти подведя мышь к категории, потом всплывает подкатегория и т.д., следовательно поэтому могут не попадать в поиск все страницы, (5-6 страниц все же попали)?
2. робот просто не успел все проиндексировать - сколько примерно времени уходит на это?
3. страницы доступны только после авторизации - это исключено.
4. медленный сервер хоста из за которого робот получает в ответ 404 - а сколько повремени должен быть ответ удовл.яндекс?
5. робот посчитал страницы дублями, такое часто бывает с инет-магазинами, например - да у меня инет магаз, я как раз в предыдущем сайтмэпе боролся с ними. В этом дублей не нашел.
1. тупо неверные адреса, которые никуда не ведут. Прокликайте весь сайтмап либо воспользуйтесь спец софтом: я Xenu's Link Sleuth пользую
2. иногда месяца =)
3. вам виднее)
4. по-разному, вообще имелось ввиду что некоторые хосты имеют свойство быть недоступными, особенно дешевые. недолго, по 5-10 минут пару раз в день, человеку это незаметно, но возможно именно тогда робот приходил
5. имелось ввиду то что страницы имеют мало уникального контента. Если каждый товар не имеет адекватного описания - робот их может посчитать дублями