- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем интересно узнать есть ли польза от Sitemap?
На увеличение траффика с поисковиков влияет?
Если сайт имеет 1000 страниц нужен ли sitemap?
Или sitemap нужен от 10000 страниц для лучшей индексации?
Уже несколько раз обсуждалось. На трафик никаким боком не влияет. Индексацию может ускорить, а может и нет. Если большой сайт не в полном объёме проиндексирован, попробовать в роботс добавить ссылку на карту. Ничего плохого от карты нет, сгенерировать недолго, так что почему не сделать?
делаю sitemap для 200000 страниц уже вторые сутки ... 😮
делаю sitemap для 200000 страниц уже вторые сутки ... 😮
Что-то слишком долго.. В этой теме приводится пример идексации 240к страниц за 4-5 часов.
Ускоряет индексацию, ну для примера приведу свой сайт, главная вылезла на 4-й день, все 15 страниц сайта появились в индексе, через 8 дней, это чисто по Яндексу, в Гугле все страницы попали в индекс через 3 недели
Похоже я первый проголосовал "нет" :).
У меня правда был один опыт. Сайт на 4000 страниц, внутрь боты не ходили. Сайтмэп был сгенерирован через Sape. Положен и прописан в robots.txt. Google пришел его попробовать через день. Яндекс через 8. Прошел месяц, толку не было никакого совершенно, как боты внутрь не шли, так и не шли. Поменял стратегию именования URL - убрал sitemap совсем - через примерно 2 недели почти все страницы появились в индексе.
Правда была одна штука... Яндекс уже после опыта почему то отдельно анонсировал что теперь умеет читать sitemap.xml, хотя на нем же самом была инструкция и уверения что он все умеет значительно раньше. После этого не проверял.
Для сайтов в 15 страниц сайтмэп не нужен вообще, его и так пауки просканируют за один-два захода (если отклик нормальный).
Сайт без карты, оправдан, при не очень большой структуре .