- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
..
НО! Поисковики умеют отделять ссылки в меню от ссылок в тексте(что они и делают), и чего не умеет программа, и поэтому в этом случае выходит полный бред и нескладуха....
Как быть в этом случае?
Учить теорию.
бывают глюки и ошибки программирования
скринов недостаточно?
Тоже УРЛ в личку попрошу
2 Gal262
Так же, УРЛ в личку будьте добры
Здравствуйте, пользуюсь программой некоторе время (купил ее естесна). Однако в виду нескольких последних постов в этой теме появился вопрос - программа учитывает навигацию сайта ?
А навигация это не ссылки? Конечно учитывает.
Залез в настройки и поставил личный рекорд - программа просканировала 8 000 страниц. Процесс ещё идет.
Скрестил пальцы и жду кнопки OK
Программа не тянет более 10 тыс. страниц. Это на офф.сайте прописано
А какая у Вас конфигурация компьютера? Хочу такое же количество страниц сканировать!
Если честно, я даже не знаю толком его конфигурацию. :-) Мне его 2 года назад подарил мой папа (программист С++) со словами "он для меня слишком медленный". С тех пор комп работает безотказно, даже реестр чистить не приходилось ни разу, и я не заморачиваюсь вопросом о конфигурации...
программа не понравилась больно она сложная не разобрался еще пока в ней
программа не понравилась больно она сложная не разобрался еще пока в ней
Программа не такая уж и сложная. И полезна, когда много проектов.
Можно не только рассчитывать вес страниц, но и находить дубликаты как по Url-у, так и Title, а не ждать две недели пока ПС проиндексируют сайт, после, обнаружив ошибки в Вебмастере.
А просто запустить PW и вносить правки на сайт. Экономится очень много времени.
Но пока крупные проекты программа не тянет. Сканирую вторые сутки здоровенный сайт - найдено более 11 000 страниц и 3 милл. ссылок.
Вот я к чему и вел разговор. Хорошо бы было реализовать обработку правил с $ из файла robots.txt для исключения из сканирования закрытых от индексации страниц.
программа не понравилась больно она сложная не разобрался еще пока в ней
Спасибо за отзыв :) Теперь я понимаю, почему прогу рекомендую профессионалы :)
Вот я к чему и вел разговор. Хорошо бы было реализовать обработку правил с $ из файла robots.txt для исключения из сканирования закрытых от индексации страниц.
Постараемся сделать.
Sterh добавил 21.11.2011 в 14:10
...найдено более 11 000 страниц и 3 милл. ссылок.
Тоже на рекорд идете? :)
По моему вопросу будет ответ?
url сайта (можно в личку)
Так чего тут стесняться, он и так уже сайт показал фактически
badtier если честно не понял как вы такой рез-т получили, только что просканил с дефолтными настройками сайт.
У страницы /contacts/news/obnovlenie-proektov.html нет в донорах /tech.html, эта, и те страницы которые на скрине якобы в донорах, на самом деле являются рецепторами по отношению к /contacts/news/obnovlenie-proektov.html.
По моему вопросу будет ответ?
Ковыряем :)
Так чего тут стесняться, он и так уже сайт показал фактически
Да там уже разобрались - 301 редирект на одной странице, а на вторую и так ссылки были видны. Только автор почему то пока не отвечает...