Новая, уникальная программа для перелинковки сайта и проверки площадок

Sнэйк
На сайте с 26.09.2007
Offline
89
#171

Оки. Спасибо. Моя ошибка

Не судите строго. (http://www.seo4up.ru/) Я только учусь ... SeoPult (http://seopult.ru/ref.php?ref=d6e69150f0f5b26f) Система купли/продажи ссылок (http://www.sape.ru/r.dVfaRuHpOw.php) |Система купли/продажи мест под статьи (http://seozavr.ru/index.php?id=1910) |13 центов за клик (http://clickcashmoney.com/index.htm?wm=93478)
W
На сайте с 05.10.2007
Offline
70
#172

Sterh, пишет "не удалось найти заданный узел".

Хотя сайт работает и со связью все нормально.

Не подскажете в чем проблема?

Sterh
На сайте с 15.06.2006
Offline
226
#173
wshurik:
Sterh, пишет "не удалось найти заданный узел".
Хотя сайт работает и со связью все нормально.
Не подскажете в чем проблема?

У меня Ваш сайт находит и парсит. Отписался в личку.

------------------

Решили траблу с движками ДЛЕ и Даннео. Дописываю новый Хелп и, надеюсь, к концу недели, разошлю обновления.

Программа для настройки внутренней перелинковки сайта: купить (http://www.page-weight.ru/) Проверка внешних ссылок на сайт (https://backlink.page-weight.ru) (когда Ахрефс дорого) Возьму на продвижение пару магазинов, & SEO консультации (/ru/forum/987866) для сложных случаев.
seogod
На сайте с 20.04.2007
Offline
155
#174

программа показывает общее количество внешних ссылок с сайта?

Я бы только за эту возможность выложил 50 баксиков если б можно было загружать туда много адресов сайтов на проверку.

Sterh
На сайте с 15.06.2006
Offline
226
#175
seogod:
программа показывает общее количество внешних ссылок с сайта?
Я бы только за эту возможность выложил 50 баксиков если б можно было загружать туда много адресов сайтов на проверку.

Показывает. НО! Программа не тянет большие сайты - оптимально до 1000 страниц (хотя удавалось выкачивать и до 16К, но дооолго....) Программа работает только с одним сайтом.

Вобщем использовать программу для просмотра внешних ссылок с ресурса не целесообразно.

[Удален]
#176

Будет ли ограничение на количество уровней и когда?

Sterh
На сайте с 15.06.2006
Offline
226
#177
antivir:
Будет ли ограничение на количество уровней и когда?

Нет, не будет. А если и будет, то не скоро. Сейчас работаем над серверной версией, но это будет уже совсем другая история :)

[Удален]
#178

А можно ли сделать, чтобы при нажатии "Отмена" (получение данных) оставались данные, что успелись получить?

Серверная версия - очередной сервис с оплатой за каждую вытащенную страницу?

S2
На сайте с 07.01.2008
Offline
611
#179
antivir:
Серверная версия - очередной сервис с оплатой за каждую вытащенную страницу?

Не думаю, скорее скрипт, который можно будет повесить на отдельный сервер, для увеличения скорости сканирования.

ТС, свой сайт с описанием программы когда запустите?

Далее.... Давно я к вам не заглядывал в ветку. Есть ли у вас такой функционал, если нет - реализуем ли он?

Проверка весов, только проиндексированных страниц сайтов с выдачей их списка. Проверка пакетная: т.е. загружаю например 100 урл сайтов - прога проверяет какие страницы сайта проиндексированы в Яндексе, затем расчитывает их веса, затем отсекает по заданному мной критерию страницы с низким весом, те что остались выдаёт в отдельном файле. И так по очереди. С возможностью дальнейшего объединения в один список. Хотелось бы чтобы в этом списке страницы строились не по весу(раз они тут, то значит вес уже нормальный), а по числу внешних со страницы.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
Sterh
На сайте с 15.06.2006
Offline
226
#180
antivir:
А можно ли сделать, чтобы при нажатии "Отмена" (получение данных) оставались данные, что успелись получить?
Серверная версия - очередной сервис с оплатой за каждую вытащенную страницу?

Да, он будет платный, но там будет несколько иной функционал, близкий к тому, что описал Str256

Str256:
Не думаю, скорее скрипт, который можно будет повесить на отдельный сервер, для увеличения скорости сканирования.
ТС, свой сайт с описанием программы когда запустите?

Скоро! :)

Str256:

Далее.... Давно я к вам не заглядывал в ветку. Есть ли у вас такой функционал, если нет - реализуем ли он?
Проверка весов, только проиндексированных страниц сайтов с выдачей их списка. Проверка пакетная: т.е. загружаю например 100 урл сайтов - прога проверяет какие страницы сайта проиндексированы в Яндексе, затем расчитывает их веса, затем отсекает по заданному мной критерию страницы с низким весом, те что остались выдаёт в отдельном файле. И так по очереди. С возможностью дальнейшего объединения в один список. Хотелось бы чтобы в этом списке страницы строились не по весу(раз они тут, то значит вес уже нормальный), а по числу внешних со страницы.

Я прекрасно понимаю к чему Вы клоните :)

Нечто похожее сейчас пытаемся реализовать. НО! Банально отсканировать хотябы 100 ГС с объемом 100-150 страниц на локальном компе хлопотно. Одного трафика только сожрет сколько, а для тех, кто на медленных каналах сидит - вообще беда. Поэтому доработку десктопной версии программы сочли нецелесообразной (впрочем это не значит, что мы к ней совсем не вернемся), и сосредоточились на серверной версии.

Если удастся все, что задумали, то... впрочем не будем загадывать ;)

Первый, оооочень маленький камушек, из всего это здания представлю в ближайшее время. Это будет бесплатный сервис для вывода всех ссылок с сайта, как внешних, так и внутренних.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий