SellingFeis

Рейтинг
137
Регистрация
11.10.2005

У robots`а работа не сложная, :)

лежи себе в корне сайта, да полеживай. :)

Brand from Amber, правильно говорит, стандартный robots.txt не может не неработать, вся его работа заключается в нахождении в нужном месте в нужный момент. :)

Я SLAED не знаю, но обычно,

  • экспортируется база MYSQL
  • заливается по фтп сама CMS
  • ну и коннект к базе надо наверное переписать
lazarevdn:
Ребят, советуйте тогда

ruzhost.com

100mb + неограниченное количество дополнительных доменов на аккаунте, стоит 1$ в месяц.

Они всегда бегают, даже когда сайт в бане.

Я сегодня уже приводил цитату из этого поста

Важная фича: Яндекс будет показывать именно взятые роботом страницы, а не страницы в индексе! Если у вас взято 1000 страниц, а в индексе 10, вы сможете понять, что 990 индексируются, но считаются дублями.

Сайт может храниться(обновляться) в базе яндекса и быть помеченым как забаненый... и в индексе присутствовать 0 страниц.

если когданибудь забудете ссылку на сервис который указал The end.

То можно в WWW.MSN.COM набрать ip:127.0.0.1

Хотя в сервисе все красивей и отсортировано по алфавиту. это +

Принцип устройства любой базы данных - это таблицы, во время апдейта содержимое таблиц меняется. Но содержимое не может одномоментно поменяться во всех таблицах. Сначала меняется в одной потом в другой.

  • Предположим, во время update, сначала базе меняется содержимое в таблице где записаны все ваши страницы - в этот момент времени яндекс показвает максимальное количество страниц которое он знает на вашем сайте. (100стр.)
  • Потом меняются таблицы в которых записаны какие то условия или рейтинги, значимости ваших страниц, которые в селекте действуют как ограничители(дополнительные условия) в этот момент вы видите реальное количество Ваших страниц, которое Яндекс хочет показывать пользователю согласно алгоритму. (10стр.)

Возможно те страницы что он не хочет показывать он склеил по принципу "суплементаль" или еще както пессимизировал их.

Но это мое предположение. Просто сдесь где то в соседней ветке, которую начал К.Каширин , обсуждался этот вопрос

Важная фича: Яндекс будет показывать именно взятые роботом страницы, а не страницы в индексе! Если у вас взято 1000 страниц, а в индексе 10, вы сможете понять, что 990 индексируются, но считаются дублями.

у вас три варианта:

  • или хостинг медленно отдает странички, возможно его процессор загружен другими сайтами.
  • или код вашей странички написан не оптимально (допустим сложные селекты к базе данных MYSQL), раз вы говорите что другой сайт отдается быстрее.
  • или путь от роботов sape - до хостинга на котором хостятся ваши сайты где то тормозиться.

согласен с , marrtin .

шинкарев:
Выходит, копи-паст вполне выгодная штука даже с гиперлинком? Или это редкость?

В большинстве случаев Яндекс не замечает линк на оригинальный сайт(оригинальную статью).

Поэтому многие вебмастера не разрешают копировать тексты со своих сайтов даже при условии проставления линка.

Приходится выживать в той среде и по тем правилам которые есть на текущий момент.

donc, правильно говорит, вам повезло что пока Вы еще не под фильтром "Ты последний"

Zlo_606ep, спaсибо, я узнал еще что то об excele :)

[ATTACH]9130[/ATTACH]

gif excel2.gif

можно с помощью excel

примерно так, потом весь текст скопировать опять в текстовый файл и с помощью поиск-замена убрать лишнии пробелы

[ATTACH]9128[/ATTACH]

gif excel.gif
Всего: 831