- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто может подсказать сервис или прогу для определения количества страниц на сайте? Интересует не количество проиндексированных страниц поисковиками а общее количество страниц на сайте!
Тоже интересует.
Ну если трафика не жалко, то можно при помощи Teleport Pro скачать, а потом количество страниц посмотреть.
Кто может подсказать сервис или прогу для определения количества страниц на сайте? Интересует не количество проиндексированных страниц поисковиками а общее количество страниц на сайте!
А смысл?
Проверить, как конкурент в будушем вылезет на внутренних факторах, включая вес?
Или накопать грязного бельеца и стукануть? Так это совсем не спортивный и вообще не кошерный метод.
ИМХО, гораздо интереснее посммотреть все проиндексированные страницы (чего ни Яндекс, ни Гугл делать не дают на больших объемах) и там уже анализировать :)
Ну если трафика не жалко, то можно при помощи Teleport Pro скачать, а потом количество страниц посмотреть.
хоть трафик и халявный но это не самый оперативный и главное удобный способ.
Спасибо конечно но хотелось бы более удобный способ найти
А смысл?
Проверить, как конкурент в будушем вылезет на внутренних факторах, включая вес?
Или накопать грязного бельеца и стукануть? Так это совсем не спортивный и вообще не кошерный метод.
ИМХО, гораздо интереснее посммотреть все проиндексированные страницы (чего ни Яндекс, ни Гугл делать не дают на больших объемах) и там уже анализировать :)
и откуда только такие мысли берутся? ))))
Основной смысл в этом это изучение новых сайтов, которые либо еще не проиндексированы, либо проиндексированы частично. Например клиент обращается к тебе с продвижением нового сайта, мне интересно изучить его объем, причем максимально быстро. Так же ничто не мешает изучать конкурентов, периодически оценивая какие работы они ведут...
Генератор сайтмепов нужен какой-нибудь. Например.
В любом случае, анализатор должен выкачивать весь HTML-контент, чтобы найти все документы. Так что Телепорт будет делать то же самое по сути.
Генератор сайтмепов нужен какой-нибудь. Например.
В любом случае, анализатор должен выкачивать весь HTML-контент, чтобы найти все документы. Так что Телепорт будет делать то же самое по сути.
Благодарю но с сайтмепами разбираться дольше чем телепортом воспользоваться...
Неужели нет скрипта где бы паук по ссылкам шлялся и считал уникальные урлы и вел подсчет страниц?
Например клиент обращается к тебе с продвижением нового сайта, мне интересно изучить его объем, причем максимально быстро.
Так почему бы клиенту не предоставить и FTP-доступ, и к БД?
Тогда вопрос сам собой отпадет...
Так же ничто не мешает изучать конкурентов, периодически оценивая какие работы они ведут...
Так может с этого и надо было?;)
Тоже как-то интересовался. Кроме Телепорта ничего не нашел. Его можно так настроить, чтобы он только адреса страниц скачивал, не трогая содержимое. Получается быстро, если сайт до 1000 страниц. А вот если несколько тысяч...
А что, клиент сам не может предоставить информацию о кол-ве страниц? Ну или тот кто верстал...
хоть трафик и халявный но это не самый оперативный и главное удобный способ
Неужели нет скрипта где бы паук по ссылкам шлялся и считал уникальные урлы и вел подсчет страниц?
Что такое скрипт?
Если тот, который Вы запустите, то этот способ Вам ничего существенного не сэкономит относительно Телепорт. Ну разве только место на ЖД и усилия по нажатию кнопки свойства на папке, для подсчета кол-ва. А время и трафик... нет, тоже самое будет.
А если скрипт - это у Вас чужой веб сервис/служба, то представьте, какой там канал должен быть, при 10Мбит, ru зона годы качаться будет.
Даже если кто что-то подобное и затеил, то представляю, какая у него будет актуализация :)
Даже www.webarchive.org и тот нормально задачу архива всех страниц не может решить...