- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не знал как ещё назвать тему..
Программа не на что не претендует, т.к. создавалась себе в помощь. :)
Просто выложил, может понадобится кому-нибудь.
Дело в том, что когда я анализировал выдачу Яндекса на какой-то запрос, то там нередко появлялись одни и те же сайты. Я задался вопросом: "Какой же сайт из моих конкурентов по всем запросам находится в ТОП10,20,30,... больше всех?".
(не спрашивайте почему я им задался. Просто задался и всё тут :) )
Естественно ручками не хотелось все смотреть, потому как запоминать сколько раз тот или иной сайт появлялся в выдаче допустим по 20-ти запросам несколько проблематично. Поскольку сервисов, которые выдают ТОП10,20,30,... по заданному запросу полно (тот же www.Semonitor.ru), то мне оставалось написать анализатор этой выдачи. Что, вроде как, было успешно реализовано.
От Вас требуется один или несколько текстовых файлов со списком url сайтов (по одному url на строку).
Программа:
1. Автоматически переведёт url в нижний регистр;
2. Удалит пробелы перед и после адреса;
3. Добавит "http://" там где отсутствует;
4. Проанализирует адреса;
5. Выведет список "уникальных" адресов и кол-во их повторений.
Вы сможете:
1. Сохранить результаты в txt формате;
2. Экспортировать результаты в Excel.
По Вашему желанию программа может автоматически обрезать адреса.
Например:
Было www.site.ru/page.html -> станет www.site.ru
Наверное сможет пригодиться, для анализа любых Урлов (каталогов например).
НУ вот собственно и все.
Архив 400 кб
ps: нужен microsoft framework 2.0
Архив 400 кб
ps: нужен microsoft framework 2.0
Пытался скачать - беллиберду какую-то выдает.
типа страницу с текстом?
попробуйте через "сохранить как.."