- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Кто может подсказать сервис или прогу для определения количества страниц на сайте? Интересует не количество проиндексированных страниц поисковиками а общее количество страниц на сайте!
Тоже интересует.
Ну если трафика не жалко, то можно при помощи Teleport Pro скачать, а потом количество страниц посмотреть.
Кто может подсказать сервис или прогу для определения количества страниц на сайте? Интересует не количество проиндексированных страниц поисковиками а общее количество страниц на сайте!
А смысл?
Проверить, как конкурент в будушем вылезет на внутренних факторах, включая вес?
Или накопать грязного бельеца и стукануть? Так это совсем не спортивный и вообще не кошерный метод.
ИМХО, гораздо интереснее посммотреть все проиндексированные страницы (чего ни Яндекс, ни Гугл делать не дают на больших объемах) и там уже анализировать :)
Ну если трафика не жалко, то можно при помощи Teleport Pro скачать, а потом количество страниц посмотреть.
хоть трафик и халявный но это не самый оперативный и главное удобный способ.
Спасибо конечно но хотелось бы более удобный способ найти
А смысл?
Проверить, как конкурент в будушем вылезет на внутренних факторах, включая вес?
Или накопать грязного бельеца и стукануть? Так это совсем не спортивный и вообще не кошерный метод.
ИМХО, гораздо интереснее посммотреть все проиндексированные страницы (чего ни Яндекс, ни Гугл делать не дают на больших объемах) и там уже анализировать :)
и откуда только такие мысли берутся? ))))
Основной смысл в этом это изучение новых сайтов, которые либо еще не проиндексированы, либо проиндексированы частично. Например клиент обращается к тебе с продвижением нового сайта, мне интересно изучить его объем, причем максимально быстро. Так же ничто не мешает изучать конкурентов, периодически оценивая какие работы они ведут...
Генератор сайтмепов нужен какой-нибудь. Например.
В любом случае, анализатор должен выкачивать весь HTML-контент, чтобы найти все документы. Так что Телепорт будет делать то же самое по сути.
Генератор сайтмепов нужен какой-нибудь. Например.
В любом случае, анализатор должен выкачивать весь HTML-контент, чтобы найти все документы. Так что Телепорт будет делать то же самое по сути.
Благодарю но с сайтмепами разбираться дольше чем телепортом воспользоваться...
Неужели нет скрипта где бы паук по ссылкам шлялся и считал уникальные урлы и вел подсчет страниц?
Например клиент обращается к тебе с продвижением нового сайта, мне интересно изучить его объем, причем максимально быстро.
Так почему бы клиенту не предоставить и FTP-доступ, и к БД?
Тогда вопрос сам собой отпадет...
Так же ничто не мешает изучать конкурентов, периодически оценивая какие работы они ведут...
Так может с этого и надо было?;)
Тоже как-то интересовался. Кроме Телепорта ничего не нашел. Его можно так настроить, чтобы он только адреса страниц скачивал, не трогая содержимое. Получается быстро, если сайт до 1000 страниц. А вот если несколько тысяч...
А что, клиент сам не может предоставить информацию о кол-ве страниц? Ну или тот кто верстал...
хоть трафик и халявный но это не самый оперативный и главное удобный способ
Неужели нет скрипта где бы паук по ссылкам шлялся и считал уникальные урлы и вел подсчет страниц?
Что такое скрипт?
Если тот, который Вы запустите, то этот способ Вам ничего существенного не сэкономит относительно Телепорт. Ну разве только место на ЖД и усилия по нажатию кнопки свойства на папке, для подсчета кол-ва. А время и трафик... нет, тоже самое будет.
А если скрипт - это у Вас чужой веб сервис/служба, то представьте, какой там канал должен быть, при 10Мбит, ru зона годы качаться будет.
Даже если кто что-то подобное и затеил, то представляю, какая у него будет актуализация :)
Даже www.webarchive.org и тот нормально задачу архива всех страниц не может решить...