- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть ли такой вообще бесплатный скрипт?
Нужно именно скрипт на PHP чтобы установить у себя на сервере.
------------------------------------------------------------------------
Нашел один скриптец, но он только для PHP5. Протестить не смог. Попробуйте и отпишитесь у кого есть возможность.
Файл в аттаче.
Люди, неужели никого не интересует тема генерации sitemap?
Люди, неужели никого не интересует тема генерации sitemap?
Этот скрипт пишется за полчаса, столько же уйдёт времени на разбор приведённого Вами.
Всё равно под каждый сайт надо своё писать, только сам алгоритм закидывания на FTP общий будет (3-4 строки).
Этот скрипт пишется за полчаса, столько же уйдёт времени на разбор приведённого Вами.
Всё равно под каждый сайт надо своё писать, только сам алгоритм закидывания на FTP общий будет (3-4 строки).
Сомневаюсь.... Сомневаюсь что напишете что-то похожее на скрипт xml-stemaps.com за пол-часа.
смысл писать УНИВЕРСАЛЬНЫЙ скрипт, который работает на любой ЧУЖОЙ сайт?
А если для своего движка - то полчаса вместе с отладкой.
Если конечно движок есть. А если просто набор станиц - то гугл сам дает кучу скриптов
Проблема не в этом. Проблема в том, что совершенно нет никакого смысла делать карту сайта из ссылок, которые гугл и так неплохо найдет из обычного же главного меню сайта. Основная идея sitemaps в том, чтобы указать приоритет индексирования информации на сайте.
А это в полностью автоматическом режиме невозможно, равно как в ручном для больших сайтов (с количеством страниц >200).
UAWEB, я имел в виду тот, что написал для себя. Поправка, там нет заброса на FTP (перепутал с froogle).
Могу кинуть Вам свой как отправную точку, если хотите. Для начала нормально будет, потом допишете что надо.
stealthy, это зависит не от количества страниц, а от количества типов страниц. Если страницы с товаром, урлы для которых генерятся по одному принципу, то всё быстро напишется.
А вот если какой-то заумный принцип расстановки приоритетов, тогда сложно сказать, в зависимости от заумности.
это зависит не от количества страниц, а от количества типов страниц. Если страницы с товаром, урлы для которых генерятся по одному принципу, то всё быстро напишется.
А вот если какой-то заумный принцип расстановки приоритетов, тогда сложно сказать, в зависимости от заумности.
Не понял что именно зависит от типов страниц и про какие типы Вы пишете. Если у вас интернет магазин и вы хотите все динамические страницы в сайтмап запихнуть - это одно. Лично я сильно сомневаюсь что это будет намного эффективнее, чем если краулер пойдет по магазину сам. Если вы хотите расставить разные приоритеты для разных товаров, то это нужна почти ручная работа. Причем до этого должен быть проведен анализ, который покажет, например, разницу в доходности от продаж того или иного товара. И уже на основе этой информации нужно ставить приоритеты. И никакой автомат это не сделает, поскольку доходность может со временем меняться.
С другой стороны, даже в магазине с большим ассортиментом товары будут появляться и исчезать достаточно редко, основной ассортимент будет оставаться неизменным на протяжении какого-то времени. Это значит, что приоритет индексации должен быть выше у новых товаров, чтобы их нашел краулер. Еще возникает вопрос а нужно ли оставлять старые товары в карте сайта, если они уже проиндексировались?
А все самопальные скрипты что сейчас делают по сути - они берут из страниц все ссылки выдирают и в список складывают. Вопрос - а чем это отличается от того, что делает сам поисковый бот?
В общем, все эти автоматические способы что-то сгенерировать пока, как мне кажется, поставленной задачи не решают.
Не понял что именно зависит от типов страниц и про какие типы Вы пишете. Если у вас интернет магазин и вы хотите все динамические страницы в сайтмап запихнуть - это одно. Лично я сильно сомневаюсь что это будет намного эффективнее, чем если краулер пойдет по магазину сам.
Вы правильно поняли. У меня не магазин, но суть та же. Дело в том, что краулеры не сразу находят страницы, если они должны пройти до n-й страницы при многостраничном просмотре товаров. Это лечится хорошей навигацией или картой сайта.
Моё мнение, что надо делать сайпмапы с новыми страницами (ещё один тип карт сайта), в которых будут только новые, которые хотите проиндексировать.
Сам гугл советует их убирать из карты после индексации и использовать другой тип (см.выше), которым сообщать только о новых или изменённых страницах.
В общем, все эти автоматические способы что-то сгенерировать пока, как мне кажется, поставленной задачи не решают.
Не вижу смысла писать своего поискового бота. Всё, что он найдёт, гугл найдёт тоже.
Человек ведь сам знает свой сайт и его структуру, поэтому может написать скрипт, который просто расскажет какие адреса есть на сайте. Если это статьи, то все адреса у них будут вроде "article/about-beach-girls.html", причём "about-beach-girls" - это ключ в базе, который вытащить оч. просто. В данном случае статьи - это один тип страниц, новости ("news-01.html") - это второй тип и тд (отвечая на Ваш первый вопрос).
Я говорю именно о таком скрипте, зачем городить огороды?
При этом, если ведёте статистику просмотров каждой страницы, то и её достаточно просто вытащить из базы, отсортировать и проставить приоритеты в зависимости от посещаемости, от типа статьи, ключевых слов или фантазии автора.
Статистика может быть разной, хоть по продажам (или переходам из поисковиков, кому как нравится).
Но я не заметил влияния приоритетов на индексацию. Гугл просто брал всё.
Ужас. Как много все написали и никто тольком не помог. Вот здесь возьмите, закиньте себе на сервер, укажите данные сайта и скрипт сам сгенерит карту для гугла. Потом скормите ее в Google Webmaster Tools.
Ужас. Как много все написали и никто тольком не помог. Вот здесь возьмите, закиньте себе на сервер, укажите данные сайта и скрипт сам сгенерит карту для гугла. Потом скормите ее в Google Webmaster Tools.
Спасибо огромнейшее. Очень помогли! +1