РаСо

Рейтинг
53
Регистрация
24.06.2009
BlackEvil:
Уважаемый! Как же вы тогда будете запускать run.php, который находится под зендом?

Где вы в run.php видели бинарные данные - обычный base64_encode со смешением.Если не разбераеться - лучше промолчать умнее будете выглядить.

BlackEvil:
Zend скачали, установили?

Ув. еще раз не мелите чепуху там Zend Optimizer не нужен!!! А по поводу запуска под денвером - он то запускаеться - но на генирацию дора из 300 страниц у меня уходт ~5 минут, обьяснить как работает дорген я не буду есть хелп читайте,думайте,пробуйте(именно так я и делал) - или обрашайтесь к автору он вам с удовольствием обьяснит:). Скажу только что там пакетная генирация и все.

BlackEvil:
Жалко что сам дорген под зендом:(
Не поковыряешься)

О какам зенде идет речь? Там была простоя обфускация файлов, и как я писал на ачате я снял ее с файлов, но run.php обфускатор как то побил и вылазили непечатные символы по этому оставил как есть, по доргену могу сказать что он работает, но работает долго из-за морф модуля, да и кривовато что я просто не пойму тех кто за него еще и платил.

З.Ы. скорей всего это какая то пребета так как автор писал что были тесты и т.д. и т.п. прежде чем продовать то что есть сейчас.

Else:
Xtezy,
Нууу двд Эрвеха на ачате знатный юзернейм....и достаточно грамотный сколько я его помню

Ага до тех пор покамись не купил себе хрумер по дешовке и не зазнался, фетешист.

BonaHost.ru:
Ведутся работы на нашем сайте. Сам хостинг работает.

Извиняюсь за нехорошее слово - акуеные у вас работы - акки локаете от ISP? Взял хостинг на год - срочно нужно было перевести трафф ибо на старом сервачок загинался думаю сейчас возьму, покамись не определился VDS месяцок - другой(взял на год на всякий случай) - и тут на - тупа локнули доступ в ISP - а доменики у вас весят - в аську, мыло полный мороз - и как выяснилось этот чудо хостинг плюс ко всему ночью не работает(ну как же за день устает ночью выключают, экономят),а сколько времени потратил что бы залить эти несчастные 150 мб - это вообше жесть.

Вообшем вот такой "правильный" хостинг, в итоге потерял кучу времени/денег - и в итоге еще и кинули на ~40$. Ну ниче, я зла не помню, я его записываю, и соотвествуюшие отзовы что в webmoney(кошелечек мне ваш уже сказали) что на соответсвуюших порталах я вам гарантирую.

BonaHost.ru:
Конфигурация:
CPU -Core 2 Quad Q9550
RAM - 8GB ECC RAM
HDD - 2x1000 SATA-2 WD RE3
Канал 100мбит.
Трафик бесплатный, неогр., по соотношениям входящего к исходящему 1к4.
Цена - 7100 рублей(212$).
Актуально до вторника.
ICQ#: 431-036-177

Интересно сколько людей вы уже продинамили с хостингом? . Заплатил за год а товаришь через недельку и прикрыл лавочку и включает дурачка, сам конечно виноват надо было посмотреть что об нем в инете пишут но больно срочно надо было, не рекомендую с этим жульем имеет вообше никаких дел - кидало еще тот.

blagen:
пустого disallow быть не должно. хост для всех пс (с целью указать главное зеркало с www или без).

http://robotstxt.org.ru/RobotstxtErrors :


------------------------------------
Так неправильно:
User-agent:
Disallow:

Так правильно:
User-agent: *
Disallow:
------------------------------------

Даже если мы хотим просто использовать дополнительную директиву и не хотим ничего запрещать, лучше всего указать пустой Disallow. По стандарту интрукция Disallow является обязательной, и робот может «неправильно вас понять».

Не все что ВЫ считаете абсолютно правильным и не правильным являеться таковым, это только ваше имхо и тем более это не есть истина.

s91:
РаСо, это всё ясно. Но не нужно забывать еще и о том, что физически кластерная структура может состоять из сотен компьютеров, а разные кластеры могут располагаться вообще в разных датацентрах. И это всё чудо достаточно сложно в управлении.
И особенно долго вся эта структура реагирует на моментальные изменения.
Также не следует забывать, что скорость связи между разными частями системы может быть значительно меньше чем внутренняя её пропускная способность.

Например в Гугле, чтоб размещенное объявление в AdWords стало видно с любого компьютера в мире проходит от 15 минут и больше. Это при том, что гугл заинтересован в максимальном ускорении реагирования всех частей системы на размещенное объявление. С Яндекс Директ сильно не работал, но там вроде бы так же само объявления размещаются и удаляются не моментально.
Что же мы имеем с поиском? Сайтов в разы больше чем объявлений. Чтоб системе отреагировать на изменения для каждого конкретного сайта требуется значительно больше времени.
Ничего удивительного что сайта уже нет в выдаче, запрещен к индексации, а бот всё еще кушает страницы.

Вы предлагаете что время ожидания когда реплики(ну если не репликации - то пускай копии данных) станут идентичны у яши занимает 3 дня и более? Ибо судя

vadts:
Привет всем,
Преамбула: жил-был дор и продержался он два апа и вылетел в прошлый ап... но бот яши посещает от 1К дл 3K страниц в день! А меня дор динамический, место сжирается бесполезно, так как старниц в индексе нет, но они генерятся... Нафига он ходит на забаненый дор?

а прошлый ап был 3 дня назад если мне не изменяет память,к тому же у меня куча сайтов которые вылетили из индекса и есть такие которые вылетили пару месяцов назад но бот яши до сих пор туда захаживает на чаек - и что это опять время ожидание 2-3 месяца? Не думаю. А вот на 100% забаненые сайты которые в аддур так и пишут что забанен - яша вообше не появляеться. Конечно же по вашей теории возможны ситуации несаглосовности и т.д. и т.п. вот это мне кажеться более вероятным .

s91:
Но тут сайт определяется как дор, и его больше не нужно сканировать, а очередь уже создана.
Как же убрать эти страницы из очереди?

Мне кажеться это вообшем то не проблема, есть же репликация и т.д., тем более для людей которые работают в ПС - туда как правило берут далеко не глупых людей - если даже я вижу очевидные выгоду в том что бы "очереди" как вы выразились, создавались динамически с возможность внесения в них поправок на лету - то они и подавно с их опытом в этой сфере, тем более в случаях с забанеными сайтами и если учесть их маштабы то сколько это будет экономии траффика/временни? Мне кажеться громаднейшее, просто люди путают такие понятие как забаненый сайт и тот что просто вылетил из индекса(возможно скоро его забанят).

blagen:
ты не учёл что директива Allow существует только для яндекса )

Если на то пошло то в Вашем "правильном" примере

blagen:

правильный вид такой:
User-Agent: *
Disallow: /rss.xml
Host: site.com
Sitemap: http://site.com/sitemap.xml

не все правильно - Host - деректива являеться корректно только для Яндекса и Allow не только для Яндекса

robots.org.ru:

Отдельные роботы (например googlebot) понимают директиву Allow

и http://www.google.ru/support/webmasters/bin/answer.py?answer=40360&ctx=sibling

и гугл сам ее использует http://www.google.com/robots.txt :).

Всего: 461