- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Недавно решил заняться вопросом составления sitemap для своего сайта. По этому поводу возник ряд вопросов:
Во-первых, на что влияет Sitemap (положительные строны для нового и старого сайта) для гугла.
Есть ли вообще смысл для старого сайта(>года) создавать сайтмап?
Во-вторых, рационально ли составлять карты для крупных разделов или ограничится составлением одной общей карты для всего сайта (у меня лично вес xml не превышает 200 кб).
Рационально ли вносить форум в сайтмап?
В-третьих, самому составлять sitemap или с помощью скрипта.
Если у вас иногда обновляются старые документы - это может подсказать роботу об изменениях (если sitemap обновляется *). Кроме этого есть статистика индексирования в Webmaster Tools (например сколько страниц из карты проиндексировано)
200 кбайт - можно оставить отдельным файлом (IMHO)
Форум - я думаю не рационально
Лучше с помощью скрипта, если cms - искать готовые решения. И желательно что бы оно автоматически обновлялось в ротации (см *).
d1ma спасибо за ответ.
У меня еще один небольшой вопрос: прочитал что sitemap можно вынести в robots.txt таким образом Sitemap:<my url>/sitemap.xml. Будут ли его считывать поисковые роботы кроме гугла или это актуально только для него?
Это открытый стандарт, поэтому, скорей всего, не только гугл будет учитывать.
http://www.sitemaps.org/ru/
Как я понимаю, sitemap указывает боту последовательность просмотра страниц. Т.е. если паук уже облазил сайт и составил sitemap, то боту достаточно использовать sitemap.xml для переиндексации сайта.
Я, например, запихиваю URL с изминениями, которые я хочу поскорей проиндексировать, в первую сотню. Вроде бы с гуглом помогает.
o_0
А вроде бы в роботс нужно прописывать вот так:
Как я понимаю, sitemap указывает боту последовательность просмотра страниц. Т.е. если паук уже облазил сайт и составил sitemap, то боту достаточно использовать sitemap.xml для переиндексации сайта...
или я чего то не понял или я чего то пропустил в этой жизни...
1. Sitemap - это ссылки на все страницы сайта собранные на одной странице
2. XML Sitemap - предназначена для ботов ПС и не имеет ничего общего с Sitemap.html, которую можно(желательно) сделать на своём сайте для сёрферов.
3. Какой ПАУК составил карту? Никакие пауки карты не составляют!!! Sitemap ваяете только вы сами и никто другой через любые проги и сервисы.
или я чего то не понял или я чего то пропустил в этой жизни...
1. Sitemap - это ссылки на все страницы сайта собранные на одной странице
2. XML Sitemap - предназначена для ботов ПС и не имеет ничего общего с Sitemap.html, которую можно(желательно) сделать на своём сайте для сёрферов.
3. Какой ПАУК составил карту? Никакие пауки карты не составляют!!! Sitemap ваяете только вы сами и никто другой через любые проги и сервисы.
1. Только для Яндекса и людей.
2. Для Google и др. иностранщины.