Белый Ум

Белый Ум
Рейтинг
251
Регистрация
27.04.2009

Хотелось бы видеть другую систему оплаты(если будет глубина до 1000 то по такой системе это может быть просто разорением(я имею ввиду что платить придется гораздо за больше количество запросов, чем то которое было реально совершенно)):

В большинстве сео сборщиков плата устанавливается за реальное количество запросов к ПС - т.е Если парсим с глубиной 100 то:

начинаем со страницы где было в прошлый раз

Если не нашли то +-1страница

Если ключевик только добавлен то начинаем парсить с первой страницы.

Таким образом если меня все 2000 ключей на первой странице, то я плачу вообще минимум. В тех программах так и говориться - платите от до, в зависимости от глубины реального парсинга

У вас сейчас по дефолту стоиот глубина в 50 и в 100. Если бы между ними была ценовая разница то цена сразу упала бы в 2 раза если мне не нужно 100!

Если вы парсите по 10 и у меня все ключи в десятке, то для меня стоимость реальных упала бы в 10 раз(продвинул - молодец)!

Белый Ум добавил 11.02.2011 в 15:20

Навигатор:


Глубина для проекта еще реально, но для конкретного ключа - малореально. А какие глубины нужны? (можно в личку написать).

Без проблем можно добавить такой же сайт но на другом проекте. Это устраивает.

ParserYa, Да, я же написал анализы идут, со скоростью где-то 13 ссылок в минуту. значит 10000 штук парситься 13 часов.

Белый Ум добавил 10.02.2011 в 16:46

ошибка наблюдается по всем анализам - они слишком медленно выполняются.

Навигатор, Спасибо за скидку. Объясните пожалуйста почему нет разницы в стоимость 50 и 100 позиций? ведь в одном случае в 2 раза больше парсить?

Как считается стоимость?

Очень нужна в версии 3 возможность создать пользователя(или ещё как) который сможет для каждого сайта/ключа глубину парсинга настраивать. Это нужно для экспериментов.

Padonokx:
Если не все важные разделы сайта были определены роботом и выделены в «Быстрые ссылки», рекомендуем вам улучшить структуру сайта.

Ну и + высказывание Белый Ум. - правда не знаю насколько верно. может распределение трафа в рамках сайта. Встречал быстрые ссылки и на сайтах у которых совсем немного трафа.
и + поиск доп информации и анализ сайтов, у которых все ок.

Ну связь с трафиком тут очевидная - попробуйте любой свой сайт, у которого уже есть быстрые ссылки, залить на другой хост, и нифига яша не даст ему тех быстрых ссылок что были у "старого" сайта.

kiotu:
Есть страница, она оптимизирована по запросу, заказчик хочет чтобы по этому запросу выдавалась другая страница.....как безболезненно поменять эту страницу? Вопрос возник потому что на старую страницу уже закуплены ссылки.

Нафига сменить страницу? Чем вызвано это его желание? Может он просто сумасшедший, и все наши логические доводы вам не помогут, или у него особые эмпатии к новому адрессу страницы?

Пока вы нам не объясните зачем он это захотел, мы вам помочь не сможем, потому что самый лучший ответ - не менять вовсе.

1 сначала лучше продвигать по НЧ так как они естественно тянут ВЧ, а промежуточные результаты - это уже результаты, что не может не радовать.

2 объедините ключи в логические группы и продвигайте их - на каждую группу своя страница, например как тут - топ по стоматологии

Проблема со скоростью анализа ссылочной массы.

Я добавил 20 сайтов, и каждый сайт у меня анализировался часов где-то по 12. Прошла уже неделя, а анализ всё еще идет.

У меня очень быстрый интернет, а ссылки парсятся со скоростью 1 раз в 3 в секунды. Как это может быть, когда и с яху и с соломоно можно раз в 3 секунды получать целую страницу ссылок (список)?

Еще ужасно не удобно работать из-за сквозных ссылок. Парсер наткнулся на группу компаний и пошло поехало - на каждом сайте по несколько тысяч страниц.

Нужны такие настройки:

Парсить только N ссылок с одного сайта

При расчете стоимость использовать только N лучших ссылок с сайта. (они очень картину искажают)

Как мне увеличить скорость парсинга в разы? Почему ссылки загружаются раз в 3 секунды, хотя источники их отдают большими списками?

Проблема с памятью. Если оставить программу на 24 часа то она отжирает 300 мег.

Magnificent-Seo:
Не понял, что вы имеете ввиду? 🚬

то что punycode очень похож на обычный английский домен. Даже заполнить можно. Обычно там ужас.

Art74:
Сегодня могу утверждать, что со страниц в кодировке 1251 кириллицу тоже учитывает: http://stroykom.info/listing.php?id=1198

ссыль есть в ВМ

Яндекс такой яндекс! На моеём сайте который был в cp1251 Яша даже не смог проиндексировать страницы на которые вели ссылки типа moydomen.ru/ёж - т.к при преобразовании кодировок ссылка билась.

Белый Ум добавил 10.02.2011 в 14:49

Или может это связанно с тем что у яши теперь есть особые регулярки которые разбирают контент и выдирают оттуда все от http до точки рф? Значит ли это что яша сможет скушать moydomen.ru/ёж ?

Art74, да может они это пофиксили но текстовая копия еще не обновилась.

Всего: 1930