- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
НА сколько правильно работает НЕПОТ?
несколько страниц назад была формула как он работает, на сколько правильно такая формула для вас и будет ответом на ваш вопрос ;-)
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.
НА сколько правильно работает НЕПОТ?
Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.
nickspring, а возможно как-то сделать дополучение данных по бэклинкам при разрыве связи. А то бывает половина данных уже получена в 10 работающих копиях и тут бац - соединение разрывается. Приходится опять ждать пока все данные будут получены с самого начала.
Такая фича сэкономила бы уйму времени немалому многим пользователям.
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.
НА сколько правильно работает НЕПОТ?
Философский вопрос, выше ответили :). Единственное, что хочу заметить, не всегда с приведенной выше "формулой" данные совпадают... связанно это с капчей - вопрос решается.
иногда программа зависает при анализе (как правило, при получении данных с Alexa) и начинает быстро кушать много трафика, при этом не анализируя никаких сайтов (т.е. анализ не идёт дальше, а останавливается на одном сайте). Как буд-то, она зациклилась на чтении данных из потока. На кнопку "стоп" не реагирует. Это наблюдается уже довольно давно (примерно с того времени, как появился анализ по Alexa'е и др. поисковым системам).
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.
Не замечал. А подождать пробовали или бесполезно? Просто такой эффект может возникать, когда новых ссылок (еще с не найденых сайтов) нет и просто программа проходит по всем данные поисковой системы, не добавляя с нее ссылок.
Ждал, вроде, не меньше 30 минут.
К сожалению, изначально это не подразумевалось и потому быстро реализовать это невозможно.
А вообще планируете? Или пока даже в план ставить не будете?
Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").
Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?
Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка? То есть, если связь обрывается на 600-800 бэков, а реально Яззл их может по данному сайту получить скажем 1000, есть ли вероятность, что программа покажет очень маленький бюджет, тогда как при полном списке показала бы значение в несколько раз больше полученного неполного?
А вообще планируете? Или пока даже в план ставить не будете?
Пока не будем, есть более важные задачи - точность по определению индексации и непота, капча и т.п.
Ещё очень необходимая на мой вгляд фича (и легко реализуемая) - возможно добавления колонки "Стоимость", где будут указаны стоимости ВСЕХ найденных в поисковике ссылок, а не только тех, что стоят на сайтах (не "n/f").
Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.
Ещё, Николай, возможно, есть в справке, но не нашел. Не могли бы объяснить принцип объединения информации о бэках с разных ПС?
Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.
Вторая часть вопрос: могут ли сильные морды быть получены в самом конце списка?
Дай бог, нам вообще большую часть бэков в будущем получать... куда уж тут о порядке получения говорить.
Подумаем. Хотя не знаю зачем Вам информация о несуществующих ссылках.
Часто бывает ситуация, когда получаешь информацию в некий переходный период продвижения сайта: старые ссылки сняты, а новые ещё не проиндексировались. Имея данные по старым ссылкам, можно примерно оценить бюджет. При текущем же положении по каким-нибудь кондиционерам в сезон может вылезти бюджет в 100 баксов.
Кстати, если введете эту фичу, хорошо было бы, чтобы программа могла добавлять эту колонку к уже существующим файлам yad (созданным до введения фичи): файлов данных сотни, хотелось бы не терять эти данные.
Ну все же очень просто - без группировки по сайтам все суммируется, с группировкой - группируется по сайтам.
"Выводить не более одной ссылки с каждого сайта" - этот пункт отвечает за группировку?
Можно ли задать порядок обхода ПС? Например, сначала получаем Гугл, потом алеху и т.д.