- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт на ~300к страниц.
Как/чем собрать все адреса страниц в единый sitemap.html ?
Точнее лучше наверное разбить сайтмап на несколько файликов, ибо одним файлом он будет слишком большой.
Помогите плиз. Заранее благодарен.
Можно попробовать парсером Алаева. Зависит от ресурсов ПК.
Файл придется разбить аж на 6 частей и создать индексный файл
http://www.sitemaps.org/ru/protocol.html#index
Sitemap штука динамическая. Сделать его один раз и забыть не получится. Соответственно лучше всего, если двиг сам будет формировать список своих же URL... ну ему виднее должно быть сколько у него страниц, чем любому из парсеров.
Есть сайт на ~300к страниц.
Как/чем собрать все адреса страниц в единый sitemap.html ?
Точнее лучше наверное разбить сайтмап на несколько файликов, ибо одним файлом он будет слишком большой.
Помогите плиз. Заранее благодарен.
Можно сделать с помощью программы "Sitemap Writer Pro", например, но зачем изобретать велосипед, да и какой смысл от такой карты, если ластмодифайт там обновляться не будет? Лучше закажите у программиста скрипт, который будет генерировать карту сайта и обновлять ластмодифайт при каждом изменении страницы.
Демо-версия этого парсера парсит всего 150 страниц( А покупать лицензию за 2к из-за одного только сайта слишком накладно. Нет ли каких-нибудь более бюджетных вариантов? В идеале бесплатных😂
парсим сайт прогой screaming frog seo spider, удаляем левые страницы, урлы с параметрами, а потом оставшиеся ссылки загружаем в любой онлайновый сервис генерации сайтмап.
парсим сайт прогой screaming frog seo spider, удаляем левые страницы, урлы с параметрами, а потом оставшиеся ссылки загружаем в любой онлайновый сервис генерации сайтмап.
Когда количество страничек перевалит через 100 000 вы удивитесь как упадет скорость этого парсера, даже если отдадите ему все свои 16 гигов оперативы. А потом он начнет выдавать ошибки, что мол памяти нема и проблема будет уже не в железе.
При нынешнем курсе фунта я платил и плакал. Платил и плакал. 12000 рублей на год у SreaminFrog против 2000 руб навечно у Алаева.
BlagFurer, пробовал ставить java 64 bit и править ини файл с настройками?
Сканировал до 200к - не заметил проблем.
а этот скрипт никто не пробовал https://www.xml-sitemaps.com/standalone-google-sitemap-generator.html ? думал как раз над покупкой
Спасибо товарищу Fish_su! Прога собрала все странички еще и на несколько частей есть возможность разбить. Правда процесс сбора занял около суток😂
правильно будет так, как сказано в #2 посте