- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Я достаточно ясно ответил,
а помоему вы не ответили, ну как знаете, если прямо не отвечаете, то есть сомнения...
ali13, отстаньте вы уже от Никиты. Сказал договорился, значит договорился. А уж давать подробности или нет - его дело.
А то еще найдется умник, и по тому же признаку начнет яндекс парсить без договоренностей.
по тому же признаку
признак известен, это User Agent, а вот по поводу обсчитывается статистика или нет это уже ваши домыслы, Никита прямо не ответил
Подскажите господа.
Потребовалось проверить свой сайт на тему на каких страницах какой ПР
Открыл анализатор ПР
Загрузил из файла урлы ( 20000)
Убрал все галочки кроме ПР и запустил проверку.
Само собой все несколько раз висло и падало. Но один раз проверка все же прошла. Тем не менее было проанализировано только 10-12 % от всех страниц.
Можно ли каким либо иным способом БЕЗ глюков это сделать данной программой ?
Deni, не стоит в этот софт такие объемы загружать.
Он на тысяче уже чихать начинает, а о 20 и говорить не приходится.
НЕ ДЛЯ ТОГО этот софт сделан, чтобы такие промышленные объемы чекать 🚬
Avatar, вот ты мне в репутацию минус влепил, за что спрашивается? За то что я хочу получить прямой ответ от производителя, обсчитываетются ли запросы к ПМ или нет?
Как ты написал в комментарии к оценке моей репутации, что Никита не обязан мне отвечать на этот вопрос, а кто тогда обязан? И в чём проблема в том чтобы ответить, я не вижу?
Если человек не говорит прямо, то ему есть, что скрывать, обычно....
Такой вопрос. может кто сталкивался, а может Никита ответит.
Чекаю на внешние ссылки сайт. линк чекинг проходит нормально, определяет. начинает определять ПР...начинают всплывать циферки... в процесе чека я их вижу, а вот когда доходит до 100% , страница как бы обновляется и клеточки с ПР отключены :( вернее пусты... что делать?
PS анкор не чекаю.
Такой вопрос. может кто сталкивался, а может Никита ответит.
Чекаю на внешние ссылки сайт. линк чекинг проходит нормально, определяет. начинает определять ПР...начинают всплывать циферки... в процесе чека я их вижу, а вот когда доходит до 100% , страница как бы обновляется и клеточки с ПР отключены :( вернее пусты... что делать?
PS анкор не чекаю.
Ну вот примерно такая же песня у меня при определении Пр большого колличества страниц.
Deni, не стоит в этот софт такие объемы загружать.
Он на тысяче уже чихать начинает, а о 20 и говорить не приходится.
НЕ ДЛЯ ТОГО этот софт сделан, чтобы такие промышленные объемы чекать 🚬
Это разве промышленные обьемы то ?
Всего навсего один сайт свой проверить хотел :)
Итого делаем вывод - данный софт этого не умеет , а точнее на больших обьемах банально глючит.
Тогда вопрос - чем такое можно сделать ?
ЗЫ Загрузил список на 3000 урлов. Все равно отказывается проверять ПР :(
ЗЫ ЗЫ Методом анализа удалось выяснить что прога более 1200-1400 урлов непереваривает
Глючная прога однако...........😡
ЗЫ ЗЫ Методом анализа удалось выяснить что прога более 1200-1400 урлов непереваривает
Глючная прога однако...........
Конфигурашку писюка, на котором крутил в студию, и характеристики канала в инет.
А то выяснится, что 600 мерседес - гуано, т.к. на нем с прицепом нельзя из леса по 50 бревен кругляка вывозить.😂
У меня, такие объемы (3200 URL) тоже не идут на ноуте ( IBM T43, Centrino 1.8, RAM 1.5G, HDD - IDE ), но при этом со скрипом, но идут на рабочем писюке ( Supermicro, 2xXeon 2.8, RAM 8G, HDD - SCSI, RAID 5).
Канал в обоих случаях одинаков - 100Mb до M9. Утилизация - до 15%.
А с объемами в 20 000 URL надо что-то на платформе Oracle или DB2 делать, а не на файловой DB. И стоить системка будет уже на $100 а на 2 порядка больше. Или портировать на AS400, и добивать туда процессоров :)