- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Sterh, осталась тока с выгрузкой разобраться, а то слишком много там \n \r
и кстати было бы не плохо по умолчанию проводить замену мнемокода на символы http://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%B5%D0%BC%D0%BE%D0%BD%D0%B8%D0%BA%D0%B8_%D0%B2_HTML
Ок. Как раз сейчас мелочи шлифуем.... хэлп вот только что дописал.. :)
Sterh, кстати встречал когда вместо
используется конструкция
': или даже
':
и
&:#039:
и кстати было бы не плохо по умолчанию проводить замену мнемокода на символы http://ru.wikipedia.org/wiki/%D0%9C%D0%BD%D0%B5%D0%BC%D0%BE%D0%BD%D0%B8%D0%BA%D0%B8_%D0%B2_HTML
Мы хотели это сделать, но столкнулись с проблемой, что после преобразования ссылка становится не верной, некоторые сервера понимают только мнемокод, и преобразованная ссылка выдает 404 "Не найдено". А программа пока не обладает интеллектом отличить когда нужно делать преобразования (и обратные тоже), а когда нет. Поэтому все ссылки показываются "как есть".
exp131, вопрос даже не про ссылки, а про данные (title, анкоры), уже после парсинга в выгрузке в excel :)
Online версия сканирует третьи сутки, беда...
И это при том что 1.8. - сканирует идеально - и без ошибок в титлах и в экспорте порядок, вот только медленно. Почему не взять как там распознание работает.
И это при том что 1.8. - сканирует идеально - и без ошибок в титлах и в экспорте порядок, вот только медленно. Почему не взять как там распознание работает.
Сделаем преобразование тайтлов и анкоров, но оставим ссылки как есть.
Бывают на некоторых самописках урлы в которых встречаются точка с запятой. Поэтому при экспорте, полная хрень получается. нужно выбор типа разделителя при экспорте, к примеру таб, а отдавать в тхт. А если в экселе отдавать для небольших сайтов, то по возможности, в одном документе в разных листах: страницы, битые, внешние.
Совсем не понравился подход онлайн версии.
На сайте 3500 страниц. Указал, что 4000, чтобы был какой-то лимит при сканировании. Оплатил 100 рублей, как запросили. Программа трое! суток что-то там сканировала, затем выдала, что
Страниц в Google: 9 430
Страниц найдено: 357 861
Страниц без ошибок: 357 001
Ссылок всего: 21 665 743
Внеш./битых ссылок: 352 007
Уникальных анкоров: 4 099
Требуется доплата 585.13p, от заявленных 100. Совсем не честно. Доплату нужно спрашивать как исчерпался мой ста-рублёвый лимит, приостанавливая сканирование. Как оплачу - продолжить. А то сейчас ни отчета не получил, ни ваш софт денег. В результате вы отработали в пустую же? И клиент мягко говоря в недоумении. А посмотреть отчет очень хотелось бы конечно...
allianceer, бывает, если много лишних параметров. к примеру выбор товара по многим критериям - и каждый критерий формирует отдельную страницу. стоит дубли в роботсе запрещать.
Кстати, ТС такой вопрос, может стоит слелать возможным сканирование по sitemap.xml - на многих сайтах они выложены в роботс.тхт т.е. сканировать их на ссылки, а потом просто проходить по этим ссылкам - может ещё ускориться.