Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
meraleks:
Смотри:
1.Есть список запросов, есть релевантные этим запросам страницы. Составляем исходя из этого ссылки.

Т.е. я составляю список анкоров, гружу его в прогу, а она сама уже определяет релевантные анкору страницы, подставляет УРЛ, и раскидывает ссылки по сайту?

Str256:
А стоимость попрежнему 20wmz? Кстати я так и не понял, прога учитывает особенности индексации Яндекса или нет? Вот например: http://devaka.ru/articles/two-links-experiment

1) Да, цена прежняя. В рублях если - то по текущему курсу. Кошелек тоже не менялся.

2) Нет, не учитывает. Считает все ссылки.

meraleks:
1. Релевантные страницы определяются в процессе создания ссылок

А как? И релевантные чему?

meraleks:


Не думаю, что это приобретет массовый характер, все таки люди еще не осознали всей важности внутренней перелинковки.

Согласен, не приведет :) И дело не в том, что не осознали, а в том, что лень осознавать :)

Первая статья уже в индексе (за два апа).

Продолжаем размещать.

Были маленькие траблы (забыл продлить домен). Сейчас все в порядке.

Продолжаем размещаться! :)

pehota:
На большинстве сайтов, при учете содержимого robots.txt анализируется только главная страница, как быть?

Снять галочку "использовать роботс", а ограничения забить в настройки.

sanitarn:
Какая последняя версия программы? А то приходится в топике следить, когда у вас она обновляется.

Последняя версия 1.5.4

Обновления выйдут не скоро, но как только выйдут разошлю все уведомления письмом.. ну тут буду громко кричать :)

sapien:

сайт не в фильтре = он трастовый (с точки зрения ПС)

Железная логика! ))))

Траст ранк

MEK:
Спасибо, обновление получил.
Хоть Вы и предупреждали, что программа не для больших сайтов- свыше 12 000 страниц и 1 млн ссылок прокачала. Но: не выключал комп три дня :) Паузу, плз, сделайте!

"Мадам, месье! Же ну ма па си жур!" (с) ))))

А вообще кому как. У кого то и 4К страниц не выкачивает, у кого то выкачивает и большие сайты. Все зависит от сервера, канала и от мощности компа.

Паузу сделаем обязательно, а для больших сайтов будет более интересное решение ;)

ArtLiberty:
понятно
очень жаль

в программе мне не хватает 3 вещи:
1. правильного удаления ссылок
2. возможность отката вперед/назад как в ворде
3. ПАУЗЫ
зачастую, сканируя проект инет-магазина, процесс затягивается
а перемещаться надо, приходится ноут отключать

это, конечно, решаемо организационными методами, но не хотелось бы

ArtLiberty добавил 30.08.2009 в 14:19
и! если процесс сканирования длительный, возможность работать с уже полученными результатами

ArtLiberty добавил 30.08.2009 в 14:23
сейчас сканируется проект - найдено уже 23000 страниц
процесс длится более суток - можно бы уже начать работать по закрытию ссылок или в случае проблем с версткой начать исправлять

Все это реализуемо, и стоит в планах. Единственное, чего не хватает - времени. Сейчас закончим один проект и вернемся к программе. Идей и наработок куча :)

Всего: 2038