Как какой, вот варианты либо цербер взять, либо дорген. Нашел я за неделю где скачать, но прежде чем платить за софт, надо подумать) Бесплатный мне кажется не вариант. Т.к. до этого никогда не делал доры, только саттелиты или СДЛ, вот и мучительный выбор передо мной. Хочется чуть меньше напряга, что бы не отдельно парсить, отдельно заливать, отдельно то отдельно се, а что бы все в одном флаконе. После переговоров с некоторыми продавцами софта выясняется что ни у кого нет точных данных как в итоге доры залетают в индекс гугла, если дор на английском, получается кот в мешке.
Какой эксперимент, хмм... это секрет) Не думаю что у нас совпадают цели.
Ну да браузер оно тоже понятно) Но то что он палит когда юзверь возвращается, так это будет все равно большая погрешность, куки отрублены могут быть и все такое, да и хром все же не на столько популярен что бы на этом делать сильно влияющие фильтры.
one_way, зачем забивать на одну из составляющих, курочка по зернышку)))) Мне в принципе было интересно какими методами гугл теоретически может это отслеживать, может все же стоит пошаманить раз как-то это дело влияет)
Объясните плиз нубу) Как гугл отслеживает поведение человека на доре? Мы что ставим на него гугланалитикс?
Планируется что-нибудь подобное под буржунет?
Под неверной я имел ввиду отличную от того что видит пользователь. Одно дело детектить сервис и его обманывать) а другое дело всем разное показывать. И что все ПС так сейчас делают?
И как клиентам отчитываются в таком случае?)) Открывая правильный браузер?)) В принципе интересная идея ПС, молодцы, надо почитать тут подробнее про это дело, событие лично меня радует)
Вы мне это прекращайте) Я бы тут не сидел если бы не нагуглил)
А что все же по теме, сервиса который точно покажет конкретно по регионам нет?
ПС же не могут специально подсунуть именно сервисам неверную выдачу. Может как вариант там у них бывает рандомная выдача в некоторых случаях... Не совсем рандомная, но думаю идея ясна, т.е. сайт может например занимать позиции от 10-20. Тогда будет выдача у вас отличаться. Понятно что они могут по ай-пи смотреть кто их парсит, или как вариант если идет парсинг определенной темы с разных ай-пи. Х.з. в общем, но ручками все смотреть не вариант.
Эх 4 года отсутствовал и все так весело поменялось)
fivefinger, ну прекращай, в самом деле, какой бы ни был сервис на по факту там ведь можно посмотреть то что ТС просил) Или твой опонент должен был дать ссылку на вебэффектор? Кстати ты сам ее так и не дал, пришлось гуглить)
А что тут сложности с парсингом могут быть? Уже давно вроде как парсинг изучен вдоль и поперек, и что что пс не любят, или не умеют прогеры с разными ай-пи работать... в общем странно что сейчас у кого-то тут сложности, еще в 2006 делали нормально такие вещи)
Ну так еще же надо проанализировать страницы сайта, выделить там основные моменты, ну понятно когда идет сбор только того что двигается внутренней оптимизацией, всякие заголовки, жирные шрифты и т.д., но а остальной контент как? забивается на это?
Хорошая идея, а я не проверял) Думал это изи сделать правильный детект позиций в сервисе, может сервисы просто собирают свою базу выдачи? интересно как они работают, думаю врятли анализируя сайт и подбирая наиболее вероятные выражения.
Мне нравится возможность апи в продвигаторе.