Бесплатный скрипт генератора Google SiteMap

12
UB
На сайте с 13.04.2006
Offline
44
2227

Есть ли такой вообще бесплатный скрипт?

Нужно именно скрипт на PHP чтобы установить у себя на сервере.

------------------------------------------------------------------------

Нашел один скриптец, но он только для PHP5. Протестить не смог. Попробуйте и отпишитесь у кого есть возможность.

Файл в аттаче.

zip www.zip
UB
На сайте с 13.04.2006
Offline
44
#1

Люди, неужели никого не интересует тема генерации sitemap?

B
На сайте с 06.04.2006
Offline
24
#2
UAWEB:
Люди, неужели никого не интересует тема генерации sitemap?

Этот скрипт пишется за полчаса, столько же уйдёт времени на разбор приведённого Вами.

Всё равно под каждый сайт надо своё писать, только сам алгоритм закидывания на FTP общий будет (3-4 строки).

Мониторинг сайтов (http://hostpulse.ru/), серверов, проверка содержимого страниц.
UB
На сайте с 13.04.2006
Offline
44
#3
blaize:
Этот скрипт пишется за полчаса, столько же уйдёт времени на разбор приведённого Вами.

Всё равно под каждый сайт надо своё писать, только сам алгоритм закидывания на FTP общий будет (3-4 строки).

Сомневаюсь.... Сомневаюсь что напишете что-то похожее на скрипт xml-stemaps.com за пол-часа.

Ank
На сайте с 26.04.2004
Offline
108
Ank
#4

смысл писать УНИВЕРСАЛЬНЫЙ скрипт, который работает на любой ЧУЖОЙ сайт?

А если для своего движка - то полчаса вместе с отладкой.

Если конечно движок есть. А если просто набор станиц - то гугл сам дает кучу скриптов

Ссылка за контент ( http://www.acma.ru ) прямая и безответная. ► [url=https://saas24.ru/saas_category/dedicated/?utm_source=forums&utm_medium=signatures&utm_campaign=dedicated_s24]Рейтинг серверов[/url] — ТОП10 ◄
stealthy
На сайте с 15.06.2006
Offline
69
#5

Проблема не в этом. Проблема в том, что совершенно нет никакого смысла делать карту сайта из ссылок, которые гугл и так неплохо найдет из обычного же главного меню сайта. Основная идея sitemaps в том, чтобы указать приоритет индексирования информации на сайте.

А это в полностью автоматическом режиме невозможно, равно как в ручном для больших сайтов (с количеством страниц >200).

Twilight CMS (http://www.twl.ru): есть Free версия, очень проста и удобна в использовании. Консультирую по любым вопросам. Новый спорт - практическая стрельба (http://nikit.in) - не для офисного планктона.
B
На сайте с 06.04.2006
Offline
24
#6

UAWEB, я имел в виду тот, что написал для себя. Поправка, там нет заброса на FTP (перепутал с froogle).

Могу кинуть Вам свой как отправную точку, если хотите. Для начала нормально будет, потом допишете что надо.

stealthy, это зависит не от количества страниц, а от количества типов страниц. Если страницы с товаром, урлы для которых генерятся по одному принципу, то всё быстро напишется.

А вот если какой-то заумный принцип расстановки приоритетов, тогда сложно сказать, в зависимости от заумности.

stealthy
На сайте с 15.06.2006
Offline
69
#7
blaize:
это зависит не от количества страниц, а от количества типов страниц. Если страницы с товаром, урлы для которых генерятся по одному принципу, то всё быстро напишется.
А вот если какой-то заумный принцип расстановки приоритетов, тогда сложно сказать, в зависимости от заумности.

Не понял что именно зависит от типов страниц и про какие типы Вы пишете. Если у вас интернет магазин и вы хотите все динамические страницы в сайтмап запихнуть - это одно. Лично я сильно сомневаюсь что это будет намного эффективнее, чем если краулер пойдет по магазину сам. Если вы хотите расставить разные приоритеты для разных товаров, то это нужна почти ручная работа. Причем до этого должен быть проведен анализ, который покажет, например, разницу в доходности от продаж того или иного товара. И уже на основе этой информации нужно ставить приоритеты. И никакой автомат это не сделает, поскольку доходность может со временем меняться.

С другой стороны, даже в магазине с большим ассортиментом товары будут появляться и исчезать достаточно редко, основной ассортимент будет оставаться неизменным на протяжении какого-то времени. Это значит, что приоритет индексации должен быть выше у новых товаров, чтобы их нашел краулер. Еще возникает вопрос а нужно ли оставлять старые товары в карте сайта, если они уже проиндексировались?

А все самопальные скрипты что сейчас делают по сути - они берут из страниц все ссылки выдирают и в список складывают. Вопрос - а чем это отличается от того, что делает сам поисковый бот?

В общем, все эти автоматические способы что-то сгенерировать пока, как мне кажется, поставленной задачи не решают.

B
На сайте с 06.04.2006
Offline
24
#8
stealthy:
Не понял что именно зависит от типов страниц и про какие типы Вы пишете. Если у вас интернет магазин и вы хотите все динамические страницы в сайтмап запихнуть - это одно. Лично я сильно сомневаюсь что это будет намного эффективнее, чем если краулер пойдет по магазину сам.

Вы правильно поняли. У меня не магазин, но суть та же. Дело в том, что краулеры не сразу находят страницы, если они должны пройти до n-й страницы при многостраничном просмотре товаров. Это лечится хорошей навигацией или картой сайта.

Если вы хотите расставить разные приоритеты для разных товаров, то это нужна почти ручная работа. Причем до этого должен быть проведен анализ, который покажет, например, разницу в доходности от продаж того или иного товара. И уже на основе этой информации нужно ставить приоритеты. И никакой автомат это не сделает, поскольку доходность может со временем меняться.
А Вы уверены, что приоритеты помогут? Я не почувствовал разницы при простановке приоритетов. Такое чувство, что гугл прошёлся, посмотрел на страницы и сам решил какие у кого приоритеты. Несколько месяцев наблюдал.

Моё мнение, что надо делать сайпмапы с новыми страницами (ещё один тип карт сайта), в которых будут только новые, которые хотите проиндексировать.

С другой стороны, даже в магазине с большим ассортиментом товары будут появляться и исчезать достаточно редко, основной ассортимент будет оставаться неизменным на протяжении какого-то времени. Это значит, что приоритет индексации должен быть выше у новых товаров, чтобы их нашел краулер. Еще возникает вопрос а нужно ли оставлять старые товары в карте сайта, если они уже проиндексировались?

Сам гугл советует их убирать из карты после индексации и использовать другой тип (см.выше), которым сообщать только о новых или изменённых страницах.

А все самопальные скрипты что сейчас делают по сути - они берут из страниц все ссылки выдирают и в список складывают. Вопрос - а чем это отличается от того, что делает сам поисковый бот?
В общем, все эти автоматические способы что-то сгенерировать пока, как мне кажется, поставленной задачи не решают.

Не вижу смысла писать своего поискового бота. Всё, что он найдёт, гугл найдёт тоже.

Человек ведь сам знает свой сайт и его структуру, поэтому может написать скрипт, который просто расскажет какие адреса есть на сайте. Если это статьи, то все адреса у них будут вроде "article/about-beach-girls.html", причём "about-beach-girls" - это ключ в базе, который вытащить оч. просто. В данном случае статьи - это один тип страниц, новости ("news-01.html") - это второй тип и тд (отвечая на Ваш первый вопрос).

Я говорю именно о таком скрипте, зачем городить огороды?

При этом, если ведёте статистику просмотров каждой страницы, то и её достаточно просто вытащить из базы, отсортировать и проставить приоритеты в зависимости от посещаемости, от типа статьи, ключевых слов или фантазии автора.

Статистика может быть разной, хоть по продажам (или переходам из поисковиков, кому как нравится).

Но я не заметил влияния приоритетов на индексацию. Гугл просто брал всё.

newseditor
На сайте с 13.11.2006
Offline
123
#9

Ужас. Как много все написали и никто тольком не помог. Вот здесь возьмите, закиньте себе на сервер, укажите данные сайта и скрипт сам сгенерит карту для гугла. Потом скормите ее в Google Webmaster Tools.

zip sitemapxml.zip
UB
На сайте с 13.04.2006
Offline
44
#10
newseditor:
Ужас. Как много все написали и никто тольком не помог. Вот здесь возьмите, закиньте себе на сервер, укажите данные сайта и скрипт сам сгенерит карту для гугла. Потом скормите ее в Google Webmaster Tools.

Спасибо огромнейшее. Очень помогли! +1

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий