- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Извините, но ссылки не появляются. Нажал "загрузить ссылки компании", а ссылки не загрузились.
Показывает - размещено ссылок столько-то и так по всем компаниям, но ссылки сами нельзя просмотреть и отфильтровать.
Извините, но ссылки не появляются. Нажал "загрузить ссылки компании", а ссылки не загрузились.
Показывает - размещено ссылок столько-то и так по всем компаниям, но ссылки сами нельзя просмотреть и отфильтровать.
Таже проблема. Тс работайте дальше. Очень нужная программа. Еще бы прикрутить проверку на проиндексированность ссылок и непот - цены бы проге не было. И хистори проверок сделать не помешало бы.
направление мысли верное, работающих аналогов пока не встречал.
очень-очень нужная штуковина!
потестирую, автору большое человеческое "спасибо" !
Изхвиняюсь, режет глаз "человеческое спасибо" есть еще звериное?
программа отличная, вот для сапы бы и правда сделали бы...
Для Сапы уже есть аналоги, а это чисто под xap. Дайте автору доработать ее - чтобы работала с большим количеством ссылок.
Проделали небольшую работу и вот что получили:
* Усовершенствована система загрузки ссылок (ошибка большого кол-ва ссылок-тестили до 1500 ссылок в компании);
* Теперь для удаления ссылок используется система пакетного удаления (работает быстрее. Подсказали ребята из XAP.RU)
* Добавлен Черный список ссылок, позволяющий хранить ссылки для автоматического удаления;
* Загрузка ссылок в Черный список из текстового файла;
* Добавлена возможность напрямую помещать ссылки из списков в Журнал для удаления;
* Исправлены некоторые мелкие баги.
Спасибо всем, у кого хватило времени нам написать! Редакция ждет Ваших новых писем!:)
Молодцы. Так держать!
А где качать?
Еще существует проблема удаления ссылок, со страниц, которые выпали из Яндекса.
Т.е. если страница выпала, то проверка покажет, что ее нет в индексе и удалит ссылку, но таким образом можно удалить и хорошие страницы, которые вернутся в следующий апдейт.
Поэтому алгоритм можно доработать таким образом:
Сначала программа проверяет:
1)индексацию страниц в Гугле
2)индексацию страниц в Яндексе
3)доступность страницы со ссылкой
4)доступность ссылки на странице
5)тег noindex
6)атрибут nofollow
7)robots.txt
8)Meta robots noindex, nofollow
Далее прога выбирает ссылки, которые нужно удалять:
Ссылку нужно удалять если:
1)Ее нет ни в Гугле ни в Яндексе (если хоть где-то есть, удалять не нужно)
and
2)Страница доступна, но ссылка не найдена на странице (если страница не доступна, то удалять не надо -вдруг просто сервер временно не доступен)
and
4) noindex, nofollow, robots.txt, Meta robots noindex, nofollow - что-то из этого найдено
Для каждой ссылки можно сделать массив с историей, который допустим сохраняет 3 последние проверки. Если три раза ссылка находится только в Гугле, значит Яндекс ее забанил и ссылку можно удалять (при условии, что ссылка проверяется не чаще раза в неделю). (или дать возможность выбирать пользователю, удалять или не удалять такие ссылки)
Если три раза страница не доступна, значит ссылку тоже можно удалять.
Ну и конечно нужно дать возможность использовать прокси, иначе больше 1000-2000 ссылок в день проверить вряд ли получится.
И совсем айс, если в прогамме уже будет список бесплатных прокси и перед каждой проверкой, прога будет обходить прокси проверять их работоспособность, неработспособные прокси будут исключаться из проверки.
С такими функциями и без серьезных глюков я бы купил прогу прямо сейчас:D
Наконец-то хоть что-то стоящее для Хар. От души благодарность! А то сплошной сап, или скрипт для Хар такой медленный до ужаса и ещё после ночи ожидания ошибка )) Молодцы ребята! продолжайте усовершенствовать и я первый на очереди за покупкой ))
Наконец-то хоть что-то стоящее для Хар. От души благодарность! А то сплошной сап, или скрипт для Хар такой медленный до ужаса и ещё после ночи ожидания ошибка )) Молодцы ребята! продолжайте усовершенствовать и я первый на очереди за покупкой ))
Буду пробовать.
Второй в очереди...