- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здраствуйте, не подскажите существует ли такая программа или сервис: вбиваеш url, сканирует и выдает ссылки на страницы 2ув, 3ув, и т.д ? Ну или на все страницы сразу.
XENU
Помимо ссылок, исследует доступность страниц
выдает ссылки на страницы 2ув, 3ув, и т.д ? Ну или на все страницы сразу.
Внешние ссылки на эти страницы?
Внешние ссылки на эти страницы?
Думаю, здесь ТС хочет узнать, какие у него есть страницы 2-го и 3-го уровней глубины.
Думаю, здесь ТС хочет узнать, какие у него есть страницы 2-го и 3-го уровней глубины.
Лучше у него узнать.
Вот я, к примеру, сейчас занят в разработке сервиса, который сканирует сайт и выдаёт список ссылок, которые нужно на этот сайт проставить. Тоже вариант.
Внешние ссылки на эти страницы?
Нет. На входе: Урл. На выходе: подобие карты сайта по УВ.
Если правильно понял.
Нет. На входе: Урл. На выходе: подобие карты сайта по УВ.
Если правильно понял.
Так Язл умеет.
XENU
Помимо ссылок, исследует доступность страниц
Спасибо, посмотрел, но не совсем то, нужно чтоб robots.txt как то учитывал, видимо я неправильно задал вопрос) опишу ситуацию: есть сайт(ы) в 1к страниц нужно выдрать все ссылки на внутряки чтобы закупится ссылками на все эти страницы в сапе.
Adraom добавил 10.05.2010 в 18:46
Так Язл умеет.
Не смог потестить, т.к не привык програмки покупать ))
есть сайт(ы) в 1к страниц нужно выдрать все ссылки на внутряки чтобы закупится ссылками на все эти страницы в сапе.
Т.е. поиск внешних ссылок на страницы сайта? А Вы потом на чужие сайты ссылок купите, верно?
потерто............
Adraom добавил 10.05.2010 в 19:21
Т.е. поиск внешних ссылок на страницы сайта? А Вы потом на чужие сайты ссылок купите, верно?
Вы неправильно меня поняли. Ситуация: есть сайт 1к стр. не в индексе, нужно закупится ссылками но не только на главную а чтобы и на все внутряки, ручками копировать все ссылки на внутряки естественно будет хлопотно, вот.
потерто............
Adraom добавил 10.05.2010 в 19:21
Вы неправильно меня поняли. Ситуация: есть сайт 1к стр. не в индексе, нужно закупится ссылками но не только на главную а чтобы и на все внутряки, ручками копировать все ссылки на внутряки естественно будет хлопотно, вот.
Если я правильно понял, то вам можно просто карту сайта сделать и на эти ссылки закупать. Или тут еще принципиально "глубину" ссылок узнать?
Если нет - нашел в истории форума вот эту прогу GSiteCrawler - ищет ссылки, можно учесть роботс.тхт