FreeMarket

Рейтинг
125
Регистрация
21.04.2004

я тоже думал на счёт вируса, только вот надо шарить в этом деле....

а по поводу статистики собирает - ещё и как собирает,

думаете он только пр показывает?

технически это совсем не сложно...

что ему стоит одним запросом передать страницу сайта и время прибытия юзера, from, точку выхода на другой сайт, время выхода - клоакинг уже особо не помагает как я понимаю...

а потом раз в месяц обрабатывать базу статистики...

а может можно браузеру подсовывать какие то левые данные?

как то на серверном уровне - ведь по идее идёт запрос на сервер - а сервер делает ответ - может в пакеты можно, что то засовывать левое?

а вот если я не хочу, что б у юзера высвечивался пр сайта, как мне блокировать этот запрос?

если я не хочу, что б гугль узнал сколько времени пробыл юзер на сайте, какая его активность на сайте, куда кликал и т.д.

не хочу чтоб гугль собирал статистику о сайте.

можно ли хоть как то теоритически заблокировать эти запросы ?

Как писал Fitis
FreeMarket, а когда происходил сей процесс? на неделе у Яндекса случился глюк с последующим откатом.

процес уже месяца 2 длится...

не знаю в чём проблема...

Как писал Гроссмейстер
http://wordtracker.com/ и вроде http://overture.com/

Сам уже давно не пользуюсь этими сервисами. Semonitor и WebCEO привычнее. Будут.

а какие проблемы будут?

ведь много сайтов которые на 10 языках ...

Как писал Fitis
aleks, любишь ты пальцы гнуть... Не ту ветку выбрал.

По теме: можно сделать карту сайта на Народе и скормить ее боту. Иногда помогает.

уважаемый модератор вот можете пояснить мне такую ситуацию.

Я веду статистику роботов, по статистике было видно, что Яндекс сожрал около 5к страниц, но в базе появились страницы, которые совершенно бесполезные, а те страницы где основной контент и по статистике Яндекс их сожрал, в базе не оказалось, после чего решил удалить сайт из базы Яндекса, он не удаляется .... в чём проблема, как было 1271 страница так и осталось?

та ладно вам ...

как что, так сразу деньги...

теперь тебе нужны хорошие тематические ссылочки и будешь в 10.

меняйся, покупай и вылезеш.

Как писал Apromos

Но почему-то ни Яндекс, ни Google эти ссылки к бэклинкам не причислил, а "понял" их как простой текст.

гугль может не показывает вам всех беклинков...

вообще если правильно подойти к построению сайта на сабдоменах, то вы можете выиграть как в ггуле так и в яндексе так и в рамблере и т.д.

во первых, это быстрая индексация вашего сайта в русскоязычных поисковиках.

во вторых, если аккуратно проставлять ссылки на все поддомены вы не попадёте под фильтры гугля аля сандбокс

у меня похожая проблема...

мало того что он весь был переделан и обновляется каждый день на 100 страниц, я его удалить из Яндекса не могу,

яндекс говорит, будет удалён в течении нескольких дней и так уже пол месяца, хотя по другим сайтам удаляет быстро...

не могу понять куда Яндекс мой сайт засунул ...

не знаю ... просто всегда считал, что contain url намного больше чем беклинков - сейчас заметил обратное и при чём в 10 раз ....

возникли дурные мысли ...

Всего: 1032