FreeMarket

Рейтинг
125
Регистрация
21.04.2004

АААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААААА

Данс пошёл !!!!

А таки я ясновидящий :)))

наконец то 7 повылазили :)))🍻 🍻 🍻 🍻 🍻

наверно апдейт теперь будет 1 января - раз в год

как же теперь ссылочки продавать

думаю миллионные сайты выкладывать не очень хорошая идея, что рекомендовал бы, то фильтровать сайт, как ты и писал выше,

собственно с пр 6 хорошо держать порядка 200 - 300к страниц

пример:

выкладываешь 100 - 200 к страниц, ждёшь индексации, получаешь траф, потому убиваешь страницы из базы на которые никто не заходит с гугля, добавляешь новые, и так до мил. страницы, в конечном итоге можешь начать фильтровать по количеству заходов, а то что пр разошёлся по всем мил. страницам и стал не эффективным так оно и есть ...

эффективность, траф и маней будет куда больше, чем держать сайт в лимон страниц.

либо разбивать сайт на поддомены и накачивать их пр.

а ещё был топик, где все спорили, что тусоваться с Гулями, Яндексами, Рамблерами это не реально :)

Самые мощные инструменты продвижения это:

пиво, водка, бабы, деньги.

😂

Как писал Cossack
RDF generation прошла с ошибками. Размер большой, ошибки. Спешите добавлять сайты, сейчас можно быстро успеть на новый update.

так по этому и апдейт TBPR задерживается?

по мобильным телефонам и бытовая техника - там работы не много, сайт стоит на 30 и 50 позициях.

сложнее дело с самыми жирными запросами ...

компьютеры в 130 позициях, автомобили дальше 200...

та не, ну за 1500 в месяц я и сам смогу загнать, интересует кто чем может помочь за деньги, просто мощи не хватает ...

стоит уже куча сквозных ссылок с пр7 и пр6 и над тицем работают, но сайт не движется, а наоборот ползёт медленно вниз ....

похоже просто методы продвижения в гугле на Яндекс и Рамблер не действуют что ли ... или их ещё не засчитали

Как писал tester999
Написать так (см. исходник страницы):

<a href="&#116;&#101;&#115;&#116;&#46;&#104;&#116;&#109;">test</a>

а в чём прикол?

Как писал deadcat
Я делаю это так:

# robots detecting
$remote_addr=$HTTP_SERVER_VARS['REMOTE_ADDR'];
$remote_host=gethostbyaddr($remote_addr);
$robot=FALSE;
if(strpos($remote_host,'yandex')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'google')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'rambler')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'aport')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'search')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'whois')!==FALSE)$robot=TRUE;
if(strpos($remote_host,'find')!==FALSE)$robot=TRUE;
if($robot)
{
тут можно что-то сделать...
}

я также делаю, но отсечь всех роботов всёравно не могу, приходят пауки о которых даже не знаю ...

Как писал wayfarer
FreeMarket, реализуйте через javascript

гугль понимает ведь джава скрипт ...

Всего: 1032