- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
НА сколько правильно работает НЕПОТ?
несколько страниц назад была формула как он работает, на сколько правильно такая формула для вас и будет ответом на ваш вопрос ;-)
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.
НА сколько правильно работает НЕПОТ?
Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.
НА сколько правильно работает НЕПОТ?
Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.
Ждал, вроде, не меньше 30 минут.
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.
А вообще планируете? Или пока даже в план ставить не будете?
Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").
Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?
Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка? То есть, если связь обрывается на 600-800 бэков, а реально Яззл их может по данному сайту получить скажем 1000, есть ли вероятность, что программа покажет очень маленький бюджет, тогда как при полном списке показала бы значение в несколько раз больше полученного неполного?
А вообще планируете? Или пока даже в план ставить не будете?
Пока не будем, есть более важные задачи - точность по определению индексации и непота, капча и т.п.
Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").
Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.
Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?
Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.
Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка?
Дай бог, нам вообще большую часть бэков в будущем получать... куда уж тут о порядке получения говорить.
Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.
Часто бывает ситуация, когда получаешь информацию в некий переходный период продвижения сайта: старые ссылки сняты, а новые ещё не проиндексировались. Имея данные по старым ссылкам, можно примерно оценить бюджет. При текущем же положении по каким-нибудь кондиционерам в сезон может вылезти бюджет в 100 баксов.
Кстати, если введете эту фичу, хорошо было бы, чтобы программа могла добавлять эту колонку к уже существующим файлам yad (созданным до введения фичи): файлов данных сотни, хотелось бы не терять эти данные.
Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.
"Выводить не более одной ссылки с каждого сайта" - этот пункт отвечает за группировку?
Можно ли задать порядок обхода ПС? Например, сначала получаем Гугл, потом алеху и т.д.