- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер, нужен адекватный софт, чтоб вытянуть все url адреса внутренних страниц сайта, если на сайте есть блог, то все url адреса постов блога, и получить к каждой странице тайтл и киверды (из метатегов).
Нужно что-то вроде E RIDA 2, (впринципе там функционал вполне нормальный, только если на сайте есть блог, для одного сайта просканиаровало, для другого нет, хз...).
Какие есть варианты?
grot86 добавил 02-09-2011 в 10:08
Добрый вечер, нужен адекватный софт, чтоб вытянуть все url адреса внутренних страниц сайта, если на сайте есть блог, то все url адреса постов блога, и получить к каждой странице тайтл и киверды (из метатегов).
Нужно что-то вроде E RIDA 2, (впринципе там функционал вполне нормальный, только если на сайте есть блог, для одного сайта просканиаровало, для другого нет, хз...).
Какие есть варианты?
Ну или если ничего подобного нет, подошёл бы вариант, загрузить список внутренних ссылок а программа (скрипт) вытянула для каждой страницы метатеги
есть программа AddStudio, в принципе, отвечает Вашим требованиям, но логика работы у нее немного иная. сначала Вы подбираете/загружаете из файла семантическое ядро, потом программа подбирает для каждого запроса релевантную страницу, которую в свою очередь можно проверить на плотность ключевых слов и сравнить эти данные с данными конкурентов.
выглядит это так:
Недавно вышла такая шустрая программулина Metas. Указываете урл сайта и ее робот сам ищет все странички на нем и собирает title, keywords, description. Стоит $5, сайт автора - http://phpsin.ru/.
Неплохой бесплатный парсер
Неплохой бесплатный парсер
Хороший парсер, жаль только, что keyword из метатегов не вытягивает, а только title.
grot86 добавил 08-09-2011 в 18:16
Недавно вышла такая шустрая программулина Metas. Указываете урл сайта и ее робот сам ищет все странички на нем и собирает title, keywords, description. Стоит $5, сайт автора - http://phpsin.ru/.
Сайт почему-то не грузится, как заработает обязательно взгляну.