SellingFeis

Рейтинг
137
Регистрация
11.10.2005
pyros:
Требуется посмотреть последнюю дату индексирования яндексом

Дату индексирования никак не увидить, если вебмастер сам не позаботится вставить в код своих страниц примерно такой пхп код

<? 

echo '<!-- ip='.$REMOTE_ADDR.'
agent='.$HTTP_USER_AGENT.'
date='.date('d:M:Y H:i:s').' -->' ;
?>

тогда в сохраненой копии кеша яндекса, в коде страницы, он может найти примерно такие строчки

<!-- ip=87.250.252.29 

agent=Yandex/1.01.001 (compatible; Win16; I)
date=01:Sep:2007 04:29:33 -->

Больше никак не узнать дату сохраненой странички версии в кеше.


Цахес
, правильно сказал, в серпе, ссылка на кеш находится под снипетом с сайта и называется "Сохраненная копия"

смотреть можно через Cpanel

там есть ссылка сырые логи, обычно заархивированные открываете текстовый файлик и смотрите.

А можно на всех своих страницах поставить php код

<?

echo '<!-- ip='.$REMOTE_ADDR.'
agent='.$HTTP_USER_AGENT.'
date='.date('d:M:Y H:i:s').' -->' ;
?>

тогда в коде страницы, укравшего у вас сайта вы увидите примерно такой коментарий.

<!-- ip=81.20.173.45 

agent=Opera/9.02 (Windows NT 5.1; U; ru)
date=05:Oct:2007 20:13:09 -->

это значит что парсер скачал вашу страницу date=05:Oct:2007 20:13:09

парсил он с ip=81.20.173.45

представился Opera/9.02 (Windows NT 5.1; U; ru) или любым другим браузером

кстате этот код также удобен когда просматриваете сохраненую версию в яндексе, сразу видно когда яндекс проиндексировал вашу страницу.

<!-- ip=87.250.252.29 

agent=Yandex/1.01.001 (compatible; Win16; I)
date=01:Sep:2007 04:29:33 -->
noaham:
стоимость годовалых доменов *.info, *.org?

Говорят что ценятся домены прошедшие песок google на которых был англоязычный контент.

Но если сайт активно не продвигался то он и не был еще в песке.

Ценятся домены после активного продвижения, уже побывавшие в песке и вышедшие из него.

Если у вас домен был просто зарегистрирован и на нем крутился русскоязычный сайт, то такой домен почти ничего не стоит.

Dr.BoT:
К примеру, если у рекламодателя заканчиваются деньги,

мы с RostikUltra, имели ввиду например партнерские ссылки приглашающие зарегистрироваться в AdWords и AdSense. эти партнерские программы не зависят от рекламодателей.

По ним расчитывается сам Google, если будет произведено действие пользователем и он выполнит требования по реферальской программе.

Хотя, я с вами, Dr.BoT, конечно согласен, такие действия запрещены...

Думаю что меньший, может Яндекс такую ссылку считает навигационной и склеивает?

Обычно такие ссылки делают в виде шилдика - мол сайт сделан такимто веб агенством.

Хотя иногда народ обсуждает некий ВИЦ, может для него какой плюс и дает.

RostikUltra:
так я ж код ваще не собираюсь юзать, просто ссылку

дак я и говорю, могут незасчитать вам переход по этой ссылке рефера, но можно подождать, может кто опытный тут выскажется.

такто было действительно хорошо, потомучто партнерские банеры адсенсе зачастую непоказываются, толи это в adsense баг, толи банерорезки в локальных сетях вырезают партнерские банеры AdSense.

По крайней мере, я, сейчас сижу на работе и на своих же сайтах не могу увидеть показываются ли партнерские банеры от адсенсе у меня на сайтах. Потомучто у нас в сети стоит антивирусник от касперского и он похоже вырезает все банеры AdSense.

посмотрел по статистики liveinternet, за месяц просмотров страниц 600

а показов партнерских банеров Адсенсе всего 400

трети посетилям партнерские банеры не показывались по неясным причинам.

Но насколько я знаю изменять коды нельзя и приходится терпеть эти потери.

keo:
С привеликим удовольствием услышал бы способ, чтобы развитие получилось быстрым.

Ну, наверное имелось в виду что не надо ждать пока заработаются копеечки.

А полезть в домашнюю копилку и достать от туда сбережения и на них купить ссылок на сапе.

Без финансовых вливаний из вне, сайт на самоокупаемости долго будет развиваться...

ему надо дать финансовый толчок из посторонних денег, из своих сбережений. :)

http://kanban.ru/ - каталог rss фидов

вспомнил, еще google новости предаставляют новостной фид под любой запрос - http://www.google.com/support/news/bin/answer.py?answer=59255&hl=ru

дык, проще robots.txt положить в корень какогонибудь из сайтов, с текстом

User-Agent: *
Disallow: /

Чтобы запретить один из этих сайтов к индексации.

Всего: 831