CS Yazzle - программа для раскрутки сайта

sanitarn
На сайте с 20.08.2007
Offline
199
#731

НА сколько правильно работает НЕПОТ?

финансовый ответ (https://finansanswer.ru) Займ для безработных (https://finansanswer.ru/mikrozajmy/bezrabotnym/)
aresstokrat
На сайте с 31.07.2007
Offline
54
#732

несколько страниц назад была формула как он работает, на сколько правильно такая формула для вас и будет ответом на ваш вопрос ;-)

покупаю сайты, только СДЛ
[Удален]
#733

nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.

Такая фича сэкономила бы уйму времени немалому многим пользователям.

nickspring
На сайте с 29.03.2006
Offline
228
#734
metton:
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.

К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.

sanitarn:
НА сколько правильно работает НЕПОТ?

Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.

MVH:
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).

Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.

nickspring
На сайте с 29.03.2006
Offline
228
#735
metton:
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.

К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.

sanitarn:
НА сколько правильно работает НЕПОТ?

Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.

MVH:
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).

Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.

MVH
На сайте с 03.05.2005
Offline
64
MVH
#736
nickspring:
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.

Ждал, вроде, не меньше 30 минут.

[Удален]
#737
nickspring:
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.

А вообще планируете? Или пока даже в план ставить не будете?

Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").

[Удален]
#738

Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?

Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка? То есть, если связь обрывается на 600-800 бэков, а реально Яззл их может по данному сайту получить скажем 1000, есть ли вероятность, что программа покажет очень маленький бюджет, тогда как при полном списке показала бы значение в несколько раз больше полученного неполного?

nickspring
На сайте с 29.03.2006
Offline
228
#739
metton:
А вообще планируете? Или пока даже в план ставить не будете?

Пока не будем, есть более важные задачи - точность по определению индексации и непота, капча и т.п.

metton:
Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").

Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.

metton:
Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?

Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.

metton:
Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка?

Дай бог, нам вообще большую часть бэков в будущем получать... куда уж тут о порядке получения говорить.

[Удален]
#740
nickspring:
Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.

Часто бывает ситуация, когда получаешь информацию в некий переходный период продвижения сайта: старые ссылки сняты, а новые ещё не проиндексировались. Имея данные по старым ссылкам, можно примерно оценить бюджет. При текущем же положении по каким-нибудь кондиционерам в сезон может вылезти бюджет в 100 баксов.

Кстати, если введете эту фичу, хорошо было бы, чтобы программа могла добавлять эту колонку к уже существующим файлам yad (созданным до введения фичи): файлов данных сотни, хотелось бы не терять эти данные.

nickspring:
Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.

"Выводить не более одной ссылки с каждого сайта" - этот пункт отвечает за группировку?

Можно ли задать порядок обхода ПС? Например, сначала получаем Гугл, потом алеху и т.д.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий