- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
прога очень нужная, особенно после такого
/ru/forum/204976
Дорогой Лекс!
XAP не дает выгрузить мне файл а просто делает экспорт в текстовом формате вида:
ID ссылки http://CCCCCC.ru/stop/cat.php?id=&page=79 текст ссылки текст ссылки дата
когда я пытаюсь скормить такой формат твоей проге - она говорит "формат не распознан".
нельзя ли поподробнее узнать - в каком формате выгружать их XAP и как сделать чтобы програ поняла это формат. спасибо
просто хотелось бы чтобы прога скушала и ID и УРЛ и текст ссылки. и выдала потом ID страниц ссылки с которых не проиндексировались. это возможно?
Ignat23
а подредактировать файл экселем трудно? до нужного формата
когда я пытаюсь скормить такой формат твоей проге - она говорит "формат не распознан".
Проверил. XAP опять изменила немного файл экспорта. Просто из этого файла удалите первую строчку, и будет ОК.
В следующей версии поправлю это.
просто хотелось бы чтобы прога скушала и ID и УРЛ и текст ссылки. и выдала потом ID страниц ссылки с которых не проиндексировались. это возможно?
Пока возможно без правки проверить проиндексированость страницы и выдать ИД. По тексту ссылок на автомате(с выдачей ИД) пока невозможно.
p.s. Проверка проиндексированости самих страниц тоже неплохо съэкономит вам бюджет:)
Спасибо Lex!
твоя прога - супер! респект тебе!
кстати - какой интервал задержки оптимален? и что если использовать задержку без прокси - яндекс не скажет "вы робот!" ?
еще такой момент - прога говорит Файл прокси пустой! хотя он не пустой. прога сначала брала прокси из списка а потом вроде как закончила их перебирать и говорит Файл прокси пустой! - почему так? и что делать с proxy-last.txt
Файл прокси пустой! - почему так?
Это когда неудаётся проверить через эти прокси. Т.к. программа их удаляет если не удаётся через них считать данные.
и что делать с proxy-last.txt
После окончания работы(закрытия программы). В этот файл сохраняются те прокси, которые нормально работали. Их вы можете например использовать повторно.
без прокси:
какой интервал задержки оптимален?
Это надо проверять, как только ссылки начинают попадать в поле "Не удалось проверь" - надо увеличивать задержку.
Дорогой Lex - твоя программа чудо!
прогнал все ссылки из ксапы на предмет наличия в яндексе - в результате половину удалил - очень доволен. Но вот вопрос - что делать с оставшимися? можно ли с помощью твоей проги проверить оставшиеся страницы (которые есть я яндексе) на проиндексированность ссылок на мои сайты? как это сделать? и можно ли так же список ID чтобы выгрузился для удаления?
еще вопрос - как вручную проверить ссылку на наличие в яше? насколько вообще программа не может ошибиться? скажем бывает ли случае когд прога пишет - нет в яндексе - а страница есть там?
Странно, но не запускается - сразу же вываливает "YCCY.exe - обнаружена ошибка. Приложение будет закрыто. Приносим извинения за неудобства."....Даже AkelPad с этого архива вываливается с такой же ошибкой...
странно
Денис, а у меня программа работает, может скачать заново?
странно
Денис, а у меня программа работает, может скачать заново?
Вот и я думаю - странно...Качал два раза - с сайта разработчика и по ссылке в начале ветки. Оба раза одна и также ошибка. Скачанный архив открылся нормально, значит не битый и залился без ошибок.