Liave

Рейтинг
66
Регистрация
03.02.2009

1 доллар это же копейки, пускай делают всё что угодно, им лет сколько ?

эт хто ? дети твои или ?....

Можеш склепать простенький интерфейс, и пускай на тя работают, а ты общяйся с ними через этот интерфейс, заодно и научиш их с дремьвьювером работать.. )

Главное чтоб не сам платил, если эт твои дети конечно

onigbinde:
to Liave
Здесь вопрос не в том актуальна информация или нет, а в том - скольки людям она здесь актуальна. Обьем информации по сео очень большой и если каждый сейчас начнет копировать полезности из общедоступных источников - то форум просто утонет.

Наибольшая польза была бы если бы Вы сами разобрались в этом вопросе и потом помогали новичкам в их проблемах :)

так я тут не сижу..... )

неудастся поэтому к сожалению

kimberlit:
Ну, ты то точно под это определение не попадаешь ...

собрание балаболов....

а у меня рейтинг вышеее !! я кручееее !!!

kimberlit:
Видать хорошо разобрался )))))

оо ещё один петросян

Liave добавил 07.02.2009 в 08:14

Alexey Levin:
Liave,

Вы прокатитесь еще по ВУЗам в Вашем городы и развесьте азбуку и таблицу умножения.
Люди Вам будут безмерно благодарны за чрезвычайно актуальную информацию :D

По вузам ? 0_о

тойсть по твоему здесь собирается квалифицированный народ.... хммм.. забавно...

и между прочим, если в школе в 1 классе "расклеить" азбуку, то её тоже никто так просто читать не будет..... хоть информация и "актуальна"

Alexey Levin:
Liave,

Вы прокатитесь еще по ВУЗам в Вашем городы и развесьте азбуку и таблицу умножения.
Люди Вам будут безмерно благодарны за чрезвычайно актуальную информацию :D

ТИПО ШУТКУ ПРИДУМАЛ.... ?

Аха - ха очень смешно.....

Посмотри на количество созданых тем, а как в роботс, а что роботс, а почему роботс, а как и всё заново.......

Да хватит гавкаться !!! ))))

мне рейтинг уменьшили, я чудь со-смеху не помер ))) 😂

Создано для новичков, или для тех кому проще глянуть тут на форуме, нежели лазить по яндексу.

Тем Более в яндексе там всё немного запутано.

Я после того как сам со всем разобрался, и запретил индексацию сайта решил написать тут....

Добрее надо быть ))) душевное )))

И не создавать мнение что админы, программисты и остальные, это толстые озлобленные дядьки, сидящие за загаженным столом с банкой пива...

да ну вас всех в пень ))) 😆 лиж бы покритиковать )))))

да... не получается у меня создать папку, через пхп, со всеми правами доступа... но !

Я спокойно создал веб интерфейс, через который можно всё это обсалютно спокойно редактировать......

Liave добавил 06.02.2009 в 21:54

region15:
пробуй 0755.

бывает что средствами php папка создается с правами одного юзера, а по ftp подключаешся под другим, и могут возникать проблемы.

пасибо, потестим

Ёхан Палыч:
Ух ты! Без году неделя, а уже советует.

Типа, если лень пройти по ссылке, то будут тут многа букав читать, аж на два экрана? Для ленивых роботс не нужен.
Попытка дешевой популярности не проканала, изобретите что-нибудь свое, как минимум соберите из разных источников и обобщите.
Alexey Levin:
100%?
Во всех поисковиках?

User-agent: Yandex

Disallow:/

Я думаю здесь можно понять, что речь идёт про яндекс.

Liave добавил 06.02.2009 в 16:56

комунить пригадилось ?

Revan:
И что же будет происходить при таком robots.txt ? 😂

написано же ))

Ни 1 страница индексироваться не будет

Ёхан Палыч:
Ух ты! Без году неделя, а уже советует.

Liave добавил 06.02.2009 в 15:27

то что я не сижу тут целыми днями, а работаю, помоему делает мне больше чести.... чем вам ваш рейтинг...

Директива Crawl-delay.

Если сервер сильно нагружен и не успевает отрабатывать запросы на закачку, воспользуйтесь директивой "Crawl-delay". Она позволяет задать поисковому роботу минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей. В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").

Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.

Примеры:

User-agent: Yandex

Crawl-delay: 2 # задает таймаут в 2 секунды

User-agent: *

Disallow: /search

Crawl-delay: 4.5 # задает таймаут в 4.5 секунды

Директива Clean-param.

Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.

Например, на сайте есть страницы:

www.site.ru/some_dir/get_book.pl?ref=site_1&book_id=123

www.site.ru/some_dir/get_book.pl?ref=site_2&book_id=123

www.site.ru/some_dir/get_book.pl?ref=site_3&book_id=123

параметр 'ref=' используется только для того, чтобы отследить с какого ресурса был сделан запрос и не меняет содержимое, по всем трем адресам будет показана одна и та же страница с книгой 'book_id=123'. Тогда, если в robots.txt указать:

Clean-param: ref /some_dir/get_book.pl

вот так:

User-agent: Yandex

Disallow:

Clean-param: ref /some_dir/get_book.pl

робот Яндекса сведет все адреса страницы к одному:

www.site.ru/some_dir/get_book.pl?ref=site_1&book_id=123,

и будет чаще обходить другие страницы вашего сайта, так как нет необходимости обновлять страницы:

www.site.ru/some_dir/get_book.pl?ref=site_2&book_id=123

www.site.ru/some_dir/get_book.pl?ref=site_3&book_id=123

Синтаксис использования директивы:

Clean-param: p0[&p1&p2&..&pn] [path]

В первом поле через '&' перечисляются параметры, которые нужно не учитывать. Во втором поле указывается префикс пути страниц, для которых нужно применить правило.

Примечание:

Префикс может содержать регулярное выражение в формате, аналогичном robots.txt, но с некоторыми ограничениями: можно использовать только символы A-Za-z0-9.-/*_. При этом * трактуется так же, как в robots.txt. В конец префикса всегда неявно дописывается '*', то есть:

Clean-param: s /forum/showthread.php

означает, что будет сбрасываться параметр s у всех url-ов, начинающихся с /forum/showthread.php. Второе поле указывать необязательно, в этом случае параметр(ы) не будет учитываться для всех адресов страниц сайта. Регистр учитывается. Действует ограничение на длину правила - 500 символов. Например:

Clean-param: abc /forum/showthread.php

Clean-param: sid&sort /forumt/*.php

Clean-param: someTrash&otherTrash

Дополнительные примеры:

#для адресов вида:

www.site1.ru/forum/showthread.php?s=681498b9648949605&t=8243

www.site1.ru/forum/showthread.php?s=1e71c4427317a117a&t=8243

#robots.txt будет содержать:

User-agent: Yandex

Disallow:

Clean-param: s /forum/showthread.php

#для адресов вида:

www.site2.ru/index.php?page=1&sort=3a&sid=2564126ebdec3150c2d5d3e1c607e5df

www.site2.ru/index.php?page=1&sort=3a&sid=974017dcd170d6f0640bd2ec4a5d76ae

#robots.txt будет содержать:

User-agent: Yandex

Disallow:

Clean-param: sid /index.php

#если таких параметров несколько:

www.site1.ru/forum_old/showthread.php?s=681498b9648949605&t=8243&ref=131951

www.site1.ru/forum_new/showthread.php?s=1e71c4427317a117a&t=8243&ref=989612

#robots.txt будет содержать:

User-agent: Yandex

Disallow:

Clean-param: s&ref /forum*/showthread.php

#если параметр используется в нескольких скриптах:

www.site1.ru/forum/showthread.php?s=681498b9648949605&t=8243

www.site1.ru/forum/index.php?s=1e71c4427317a117a&t=8243

#robots.txt будет содержать:

User-agent: Yandex

Disallow:

Clean-param: s /forum/index.php

Clean-param: s /forum/showthread.php

Дополнительная информация.

Директивы robots.txt, которые не упомянуты в данном описании, робот Яндекса не поддерживает.

Необходимо помнить, что результат использования расширений формата robots.txt может отличаться от результата без них, а именно:

User-agent: Yandex

Allow: /

Disallow: /

# без расширений все запрещалось так как 'Allow: /' игнорировалось,

# с поддержкой расширений все разрешается

User-agent: Yandex

Disallow: /private*html

# без расширений запрещалось '/private*html',

# а с поддержкой расширений и '/private*html',

# и '/private/test.html', и '/private/html/test.aspx' и т.п.

User-agent: Yandex

Disallow: /private$

# без расширений запрещалось '/private$' и '/private$test' и т.п.,

# а с поддержкой расширений только '/private'

User-agent: *

Disallow: /

User-agent: Yandex

Allow: /

# без расширений из-за отсутствия перевода строки,

# 'User-agent: Yandex' было бы проигнорировано и

# результатом стало бы 'Disallow: /', но робот Яндекса

# выделяет записи по наличию в строке 'User-agent:',

# результат для робота Яндекса в данном случае 'Allow: /'

User-agent: *

Disallow: /

# комментарий1...

# комментарий2...

# комментарий3...

User-agent: Yandex

Allow: /

# аналогично предыдущему примеру (см. выше)

Примеры использования расширенного формата robots.txt:

User-agent: Yandex

Allow: /archive

Disallow: /

# разрешает все, что содержит '/archive', остальное запрещено

User-agent: Yandex

Allow: /obsolete/private/*.html$ # разрешает html файлы по пути '/obsolete/private/...'

Disallow: /*.php$ # запрещает все '*.php' на данном сайте

Disallow: /*/private/ # запрещает все подпути содержащие '/private/', но Allow выше отменяет часть запрета

Disallow: /*/old/*.zip$ # запрещает все '*.zip' файлы, содержащие в пути '/old/'

User-agent: Yandex

Disallow: /add.php?*user=

# запрещает все скрипты 'add.php?' с параметром 'user'

При написании robots.txt необходимо помнить, что у робота есть разумное ограничение на его размер. Слишком большие robots.txt (более 256 Кб) считаются полностью разрешающими, то есть рассматриваются аналогично:

User-agent: Yandex

Disallow:

причём здесь элементарные вещи ?

Я уже пробывал и 0777 и 777

и ещё ряд вариантов......

Liave добавил 06.02.2009 в 00:18

Ufaweb:
Дык, вышестоящая папка:
1) должна существовать (!!! 😂)
2) должна иметь права на запись (:D) 0777 самый верняк.
Топег ни о чем. Такие наиэлементарнейшие вещи не понимать - это пейсдец...

И вообще то эта процедура какраз таки и создаёт папку

Всего: 184