1 доллар это же копейки, пускай делают всё что угодно, им лет сколько ?
эт хто ? дети твои или ?....
Можеш склепать простенький интерфейс, и пускай на тя работают, а ты общяйся с ними через этот интерфейс, заодно и научиш их с дремьвьювером работать.. )
Главное чтоб не сам платил, если эт твои дети конечно
так я тут не сижу..... )
неудастся поэтому к сожалению
собрание балаболов....
а у меня рейтинг вышеее !! я кручееее !!!
оо ещё один петросян
Liave добавил 07.02.2009 в 08:14
По вузам ? 0_о
тойсть по твоему здесь собирается квалифицированный народ.... хммм.. забавно...
и между прочим, если в школе в 1 классе "расклеить" азбуку, то её тоже никто так просто читать не будет..... хоть информация и "актуальна"
ТИПО ШУТКУ ПРИДУМАЛ.... ?
Аха - ха очень смешно.....
Посмотри на количество созданых тем, а как в роботс, а что роботс, а почему роботс, а как и всё заново.......
Да хватит гавкаться !!! ))))
мне рейтинг уменьшили, я чудь со-смеху не помер ))) 😂
Создано для новичков, или для тех кому проще глянуть тут на форуме, нежели лазить по яндексу.
Тем Более в яндексе там всё немного запутано.
Я после того как сам со всем разобрался, и запретил индексацию сайта решил написать тут....
Добрее надо быть ))) душевное )))
И не создавать мнение что админы, программисты и остальные, это толстые озлобленные дядьки, сидящие за загаженным столом с банкой пива...
да ну вас всех в пень ))) 😆 лиж бы покритиковать )))))
да... не получается у меня создать папку, через пхп, со всеми правами доступа... но !
Я спокойно создал веб интерфейс, через который можно всё это обсалютно спокойно редактировать......
Liave добавил 06.02.2009 в 21:54
пасибо, потестим
User-agent: Yandex
Disallow:/
Я думаю здесь можно понять, что речь идёт про яндекс.
Liave добавил 06.02.2009 в 16:56
комунить пригадилось ?
написано же ))
Ни 1 страница индексироваться не будет
Liave добавил 06.02.2009 в 15:27
то что я не сижу тут целыми днями, а работаю, помоему делает мне больше чести.... чем вам ваш рейтинг...
Директива Crawl-delay.
Если сервер сильно нагружен и не успевает отрабатывать запросы на закачку, воспользуйтесь директивой "Crawl-delay". Она позволяет задать поисковому роботу минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей. В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").
Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.
Примеры:
Crawl-delay: 2 # задает таймаут в 2 секунды
User-agent: *
Disallow: /search
Crawl-delay: 4.5 # задает таймаут в 4.5 секунды
Директива Clean-param.
Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.
Например, на сайте есть страницы:
www.site.ru/some_dir/get_book.pl?ref=site_1&book_id=123
www.site.ru/some_dir/get_book.pl?ref=site_2&book_id=123
www.site.ru/some_dir/get_book.pl?ref=site_3&book_id=123
параметр 'ref=' используется только для того, чтобы отследить с какого ресурса был сделан запрос и не меняет содержимое, по всем трем адресам будет показана одна и та же страница с книгой 'book_id=123'. Тогда, если в robots.txt указать:
Clean-param: ref /some_dir/get_book.pl
вот так:
Disallow:
робот Яндекса сведет все адреса страницы к одному:
www.site.ru/some_dir/get_book.pl?ref=site_1&book_id=123,
и будет чаще обходить другие страницы вашего сайта, так как нет необходимости обновлять страницы:
Синтаксис использования директивы:
Clean-param: p0[&p1&p2&..&pn] [path]
В первом поле через '&' перечисляются параметры, которые нужно не учитывать. Во втором поле указывается префикс пути страниц, для которых нужно применить правило.
Примечание:
Префикс может содержать регулярное выражение в формате, аналогичном robots.txt, но с некоторыми ограничениями: можно использовать только символы A-Za-z0-9.-/*_. При этом * трактуется так же, как в robots.txt. В конец префикса всегда неявно дописывается '*', то есть:
Clean-param: s /forum/showthread.php
означает, что будет сбрасываться параметр s у всех url-ов, начинающихся с /forum/showthread.php. Второе поле указывать необязательно, в этом случае параметр(ы) не будет учитываться для всех адресов страниц сайта. Регистр учитывается. Действует ограничение на длину правила - 500 символов. Например:
Clean-param: abc /forum/showthread.php
Clean-param: sid&sort /forumt/*.php
Clean-param: someTrash&otherTrash
Дополнительные примеры:
#для адресов вида:
www.site1.ru/forum/showthread.php?s=681498b9648949605&t=8243
www.site1.ru/forum/showthread.php?s=1e71c4427317a117a&t=8243
#robots.txt будет содержать:
www.site2.ru/index.php?page=1&sort=3a&sid=2564126ebdec3150c2d5d3e1c607e5df
www.site2.ru/index.php?page=1&sort=3a&sid=974017dcd170d6f0640bd2ec4a5d76ae
Clean-param: sid /index.php
#если таких параметров несколько:
www.site1.ru/forum_old/showthread.php?s=681498b9648949605&t=8243&ref=131951
www.site1.ru/forum_new/showthread.php?s=1e71c4427317a117a&t=8243&ref=989612
Clean-param: s&ref /forum*/showthread.php
#если параметр используется в нескольких скриптах:
www.site1.ru/forum/index.php?s=1e71c4427317a117a&t=8243
Clean-param: s /forum/index.php
Дополнительная информация.
Директивы robots.txt, которые не упомянуты в данном описании, робот Яндекса не поддерживает.
Необходимо помнить, что результат использования расширений формата robots.txt может отличаться от результата без них, а именно:
Allow: /
Disallow: /
# без расширений все запрещалось так как 'Allow: /' игнорировалось,
# с поддержкой расширений все разрешается
Disallow: /private*html
# без расширений запрещалось '/private*html',
# а с поддержкой расширений и '/private*html',
# и '/private/test.html', и '/private/html/test.aspx' и т.п.
Disallow: /private$
# без расширений запрещалось '/private$' и '/private$test' и т.п.,
# а с поддержкой расширений только '/private'
# без расширений из-за отсутствия перевода строки,
# 'User-agent: Yandex' было бы проигнорировано и
# результатом стало бы 'Disallow: /', но робот Яндекса
# выделяет записи по наличию в строке 'User-agent:',
# результат для робота Яндекса в данном случае 'Allow: /'
# комментарий1...
# комментарий2...
# комментарий3...
# аналогично предыдущему примеру (см. выше)
Примеры использования расширенного формата robots.txt:
Allow: /archive
# разрешает все, что содержит '/archive', остальное запрещено
Allow: /obsolete/private/*.html$ # разрешает html файлы по пути '/obsolete/private/...'
Disallow: /*.php$ # запрещает все '*.php' на данном сайте
Disallow: /*/private/ # запрещает все подпути содержащие '/private/', но Allow выше отменяет часть запрета
Disallow: /*/old/*.zip$ # запрещает все '*.zip' файлы, содержащие в пути '/old/'
Disallow: /add.php?*user=
# запрещает все скрипты 'add.php?' с параметром 'user'
При написании robots.txt необходимо помнить, что у робота есть разумное ограничение на его размер. Слишком большие robots.txt (более 256 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:
причём здесь элементарные вещи ?
Я уже пробывал и 0777 и 777
и ещё ряд вариантов......
Liave добавил 06.02.2009 в 00:18
И вообще то эта процедура какраз таки и создаёт папку