- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сделал карту вот на этом сайте: http://www.xml-sitemaps.com, он мне выдал файлик sitemap.xml
Столкнулся с такими проблемами:
В файлике, который мне выдал этот сайт, ссылки иногда дублируются, то есть одна и таже ссылка может встретится несколько раз, но с разным приоритетом. Нужно ли удалять дубликаты из этого файлика? Чем вообще надо руководствоваться... запихнуть в этот файл максимально количество ссылок или сделать понятную структуру сайта...
Вопрос второй... у меня сайт более чем на 500 страниц (каталог продуктов)... но основную массу занимают отдельные продукты... грубо говоря страничка с картинкой, титлом и заголовком, но описания нет. Есть ли смысл вбивать такие странички в файл карты, особенно учитывая, что они и так не все поместились.
Дубли безусловно надо удалить. И карту сайта желательно полную, поищите наверняка для вашей CMS есть скрипты генерирующие карту сайта.
а нет ни у кого примера на PHP карты? пытался делать свою, вроде все как надо, но карта почему то не определяется как xml документ.
jcrush, зачем что то придумывать, http://gsitecrawler.com/en/download/ - Gsite Crawler, отличная бесплатная программа, сама все ссылки найдёт, сделает:
sitemap.xml
sitemap.xml.gz
urllist.txt
urllist.txt.gz
При этом сама под ваши требования автоматом будет добавлять кол-во ссылок на сайте через фтп, и главное то- прога бесплатна
Такое не пойдет, под свою CMS мне нужно свое решение, без сторонних преблуд.
а нет ни у кого примера на PHP карты? пытался делать свою, вроде все как надо, но карта почему то не определяется как xml документ.
header("Content-Type: text/xml; charset: utf-8"); и тому подобное... не пробывали? :)
эээ подробнее можно?
у меня на выходе получается:
<rss version='2.0'>
<channel>
<title>аааа</title>
<link>http://ааааu</link>
<description>кккк</description>
<generator>ууу</generator>
<pubDate>ыыыы</pubDate>
<item>
jcrush, вероятнее всего отдается не правильный Content-Type хедеров (HTTP_HEADERS).
Выше написал 1 из правильных вариантов отдачи хедеров (еще возможен application/xml) на php.
эээ подробнее можно?
у меня на выходе получается:
чтото непонятное у вас на выходе получается...
какое должно быть написанно тут http://www.sitemaps.org/ - с примерами=)
http://www.sitemaps.org/ru/protocol.php#otherformats - то что у вас генерируется описанно тут, думаю это не совсем то что вам нужно)
Если вы сами писали CMS то никто кроме вас не знает как сделать карту сайта специально под нее. Нужно знать каким образом контент сохраняется на сайте (если в базе данных то знать ее структуру).
keanor, этот стандарт надуман. Курите XML и серверные техонологии. ;)
whites, а какой-нибудь более внятный ответ есть?