- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
+ "выдиралка" урлов из файлов - то купил бы :) А еще лучше - наткнулся на каталог - в тул бар "щелк"- добавился :) И это должен быть не скрипт а exe, чтобы удобнее было! - вот когда будет все это - куплю :)
firefox + developer toolbar
firefox + developer toolbar
Если имеется в виду Web Developer, то поподробнее, если можно, как осуществить указанное?
xtremest, я так понял, это в Инфо => Информация о ссылках
По просьбам пользователей в сервис теперь добавлена функция проверки "мертвых каталогов" по ответу сервера "200 ОК" для запрашиваемой страницы.
Так же в новой версии скрипта улучшен алгоритм работы с тИЦ - теперь есть опция проверки бана Яндекса, из-за которой в других программах после проверки половина базы оказывается с нулевыми тИЦ и PR.
Улучшена проверка "русскости" каталогов в базе - теперь работает быстрее.
Добавлена возможность сразу прилепить новую базу к старой, а не только выявить новые каталоги.
Добавлена возможность просмотра прицины удаления каталога из базы по фильтрам. Теперь сразу видно почему тот или иной каталог не прошел проверку в базе.
Всем владельцам программы для получения новой версии достаточно написать запрос по почте на этой странице. Для новых покупателей цена снижена до 7(5)$ !
Принимаются пожелания. Планируется реализация программки в виде exe. Программка будет выдаваться владельцам скрипта бесплатно.
Кстати, по тестам все говорят, что наша утилита в разы быстрее сабмитера работает с базами, особенно при сравнении баз. Сравнить две базы по 5000 ссылок (5к x 5k) на локалке занимает около 7 сек! И комп при этом почти не грузит - параллельно работаю над другими делами.
По просьбам пользователей в новую версию добавлены возможности автоматической проверки на предмет - а не забанен ли каталог Яндексом.
Опция стала актуальной в связи с последними событиями - /ru/forum/53943
Так же улучшена работа с проверкой других опций и мелкие сервисные улучшения. Демка по-прежнему здесь - http://www.web-gid.ru/tools/basefix.phtml. За апдейтами обращайтесь на почту.
PS. В связи с удорожанием Сабмитера и с тем, что в нем нет многих подобных функций, утилита с понедельника будет стоить 10$. До этого времени купить можно так же, всего за 7.
Вышла новая версия. В ней улучшена работа с проверкой убитых ссылок. Теперь можно самостоятельно решить, какие коды ответов сервера считать убитыми ссылками. Так же можно отфильтровать редиректы, forbidden и пр. коды.
Наконец-то актуализирован help.
За апдейтами обращайтесь на почту.
Покупка теперь стоит $10, зато можно получить подарки...
Теперь можно получить утилиту бесплатно при покупке лицензии на сабмитер через нашу партнерку. Получаете сразу обе программы по одной цене + базы в подарок.
Алгоритм проверки белости каталога. На данный момент по соотношению <качетсво определения/разумная скорость> самый лучший, что придумали. Предлагаем на обсуждение и если будет перспектива, можно встроить в утилиту.
----
Процесс состоит из двух этапов.
1. Проверить прямые ли ссылки (достаточно просто)
2. Проверить требуются ли обратки
Первое, как уже написал, сравнительно не сложно определяется парсингом, главное точно нацелиться на нижний уровень, а не попасть в рубрикатор. Проблема больше техническая.
Второе сложнее, т.к. тут вообще с виду не подобраться. Решение:
Берем выборочно пару (число уточняется) ссылок из каталога из разных разделов и идем на эти сайты. Если на них нет ответных ссылок, значит велика вероятность, что каталог белый.
Проблемы:
а) страниц на сайте много и ссылки можно искать оч. долго. Нужно определить вероятность и выбрать наиболее важные участки поиска, на основании которого сделать с определ. вероятностью вывод, что ссыолк не найдено.
б) Сайт может быть недавно в каталоге и ссылок обратных еще не поставить. ли не поставил вообще, но в каталоге недавно и можеры его еще не удалили. Или в каталоге давно, но ссылки грохнул и еще не удален. В общем, есть опр. вероятность, но не большая.
Пункт а решается так же парсингом ответа Я. на предмет ссылающихся страниц.
В общем, если подойти с правильного бока, алгоритм вырисовывается. Требуется обсуждение и ваше мнение...
Чтобы не дублировать сообщения, в этой теме остается только голосование, а все обсуждения здесь.