- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
"огуречный LINKOSCOP 1.x"
Простая программа без заморочек для получения всех страниц и ссылок, а так же просчета
получения и передачи веса между страницами внутри сайта (перелинковка).
Одной из главных достоинств работы с программой это простота. Просто вводится URL главной
страницы сайта и нажимается кнопка "старт". Для "слабых" хостингов желательно выставлять
некоторую задержку. При необходимости выбирается исключение ссылок и страниц закрытых
в robots.txt и тегами noindex и nofollow.
Скорость работы:100 страничный html сайт проверяется за 45 секунд (с задержкой 0,2с)
Возможности:
1. Программа сканирует весь сайт (до 5 уровня) получая все страницы и все ссылки (с учетом robots.txt)
2. Делит ссылки на внутренние внешние, битые, перекресные
3. Определяет находятся ли ссылки в noindex и nofollow
4. Просчитывает сколько ссылок указывает на каждую страницу
5. Просчитывает получаемый вес для каждой страницы
6. Просчитывает передаваемый вес каждой ссылки с каждой страницы
7. Демонстрирует результат с учетом внешних и с учетом перекрестных ссылок (три результата)
8. Демонстрирует результат в режиме диаграммы (визуально)
Выгоды:
выгода №1. Знание сколько ссылок ведет на каждую страницу
выгода №2. Знание сколько получает веса каждая страница
выгода №3. Получить все страницы сайта (до 5 уровня)
выгода №4. Знать как примерно может распредилиться вес для прогнозирования PR
выгода №5. Продвинуть нужные страницы по количеству ссылок (по кол-ву ссылок)
Гарантии как и для всех программ от проекта interascope:)
Кроме этого у программы имеются бонусы и скидки. Об этом можно ознакомиться в разделе программы.
Скачать программу можно здесь: скачать программу
Вес в архиве 490 Кб в распакованном виде 968 Кб
Стоимость программы: 200 wmr (или 7 wmz)
Ключ выдается сроком на 60 месяцев (5 лет)
раздел программы: http://www.interascope.ru/linkoscop/index.html
кто пробовал программку ?
Заинтересовало.
куда и как оплачивать?
Заинтересовало.
куда и как оплачивать?
В разделе есть два способа, через фирменный магазин и через автомат типа мерчанта.
Попробуйте, она 72 часа с полным доступом. Пример результата можно посмотреть здесь:
http://www.interascope.ru/linkoscop/primer.html
Под Денвером, т.е. без выхода в Интернет будет работать? А то очень бы хотелось. Уж слишком много страниц :(
Как-то глючно парсит она, не все страницы показывает.
Таблица в примере (http://www.interascope.ru/linkoscop/primer.html) по какому принципу отсортирована?
mark3000, подскажите, можно ли проверить сайт с более чем 100 К страниц?
Под Денвером, т.е. без выхода в Интернет будет работать? А то очень бы хотелось. Уж слишком много страниц :(
К сожлению нет, возможно в следущей версии.
Это бывает, когда проверяются CMS особенно самописные или скрипты каталогов, форумов и т.д. У меня к примеру хорошо проверяется в 90% случаев. Идеальная среда для проверки это хороший статичный html сайт.
По принципу максимальное количество ссылок на страницу.
Я проверял максимум 5к страниц, но попробовать можно. Хотя при таком количестве страниц это скорее всего форум или каталог, тут возможны сложности с получением страниц, а так же нужно учесть нагрузку на сервер и то что по умолчанию программа проверяет до 5 уровня.
Это бывает, когда проверяются CMS особенно самописные или скрипты каталогов, форумов и т.д. У меня к примеру хорошо проверяется в 90% случаев. Идеальная среда для проверки это хороший статичный html сайт.
Значит есть что исправлять и к чему стремиться, что бы не в 90% а в 100% случаев было хорошо.
А насчет идеальной среды - это тот случай когда софт нужно подстраивать а не наоборот :)
А что на счет того, что бы программа собирала все тексты ссылок и потом составляла аналогичный отчет по текстам, что бы было видно, на какую страницу сколько ссылок и с каким ключом ведет?