- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Недавно решил заняться вопросом составления sitemap для своего сайта. По этому поводу возник ряд вопросов:
Во-первых, на что влияет Sitemap (положительные строны для нового и старого сайта) для гугла.
Есть ли вообще смысл для старого сайта(>года) создавать сайтмап?
Во-вторых, рационально ли составлять карты для крупных разделов или ограничится составлением одной общей карты для всего сайта (у меня лично вес xml не превышает 200 кб).
Рационально ли вносить форум в сайтмап?
В-третьих, самому составлять sitemap или с помощью скрипта.
Если у вас иногда обновляются старые документы - это может подсказать роботу об изменениях (если sitemap обновляется *). Кроме этого есть статистика индексирования в Webmaster Tools (например сколько страниц из карты проиндексировано)
200 кбайт - можно оставить отдельным файлом (IMHO)
Форум - я думаю не рационально
Лучше с помощью скрипта, если cms - искать готовые решения. И желательно что бы оно автоматически обновлялось в ротации (см *).
d1ma спасибо за ответ.
У меня еще один небольшой вопрос: прочитал что sitemap можно вынести в robots.txt таким образом Sitemap:<my url>/sitemap.xml. Будут ли его считывать поисковые роботы кроме гугла или это актуально только для него?
Это открытый стандарт, поэтому, скорей всего, не только гугл будет учитывать.
http://www.sitemaps.org/ru/
Как я понимаю, sitemap указывает боту последовательность просмотра страниц. Т.е. если паук уже облазил сайт и составил sitemap, то боту достаточно использовать sitemap.xml для переиндексации сайта.
Я, например, запихиваю URL с изминениями, которые я хочу поскорей проиндексировать, в первую сотню. Вроде бы с гуглом помогает.
o_0
А вроде бы в роботс нужно прописывать вот так:
Как я понимаю, sitemap указывает боту последовательность просмотра страниц. Т.е. если паук уже облазил сайт и составил sitemap, то боту достаточно использовать sitemap.xml для переиндексации сайта...
или я чего то не понял или я чего то пропустил в этой жизни...
1. Sitemap - это ссылки на все страницы сайта собранные на одной странице
2. XML Sitemap - предназначена для ботов ПС и не имеет ничего общего с Sitemap.html, которую можно(желательно) сделать на своём сайте для сёрферов.
3. Какой ПАУК составил карту? Никакие пауки карты не составляют!!! Sitemap ваяете только вы сами и никто другой через любые проги и сервисы.
или я чего то не понял или я чего то пропустил в этой жизни...
1. Sitemap - это ссылки на все страницы сайта собранные на одной странице
2. XML Sitemap - предназначена для ботов ПС и не имеет ничего общего с Sitemap.html, которую можно(желательно) сделать на своём сайте для сёрферов.
3. Какой ПАУК составил карту? Никакие пауки карты не составляют!!! Sitemap ваяете только вы сами и никто другой через любые проги и сервисы.
1. Только для Яндекса и людей.
2. Для Google и др. иностранщины.