rome.ro

Рейтинг
2
Регистрация
26.06.2008

Хочу выразить благодарность CyberScript за написание одного очень ценной программы для отслеживания обновлений на веб-странице.

CyberScript выполнил работу в кратчайшие сроки и с надлежащим качеством - программа получилась быстрой и удобной.

Программист - человек в общении простой и приятный, сразу знает, что именно от него требуется.

Большое спасибо за работу!

Найти афтара и дать выпить йаду(по морде и битой, желательно). Или дать ссылку на сайт, на котором купил этот гребаный движок - може кто заспамит нафик.

Добрый день.. Хотел бы вернуться ненадолго к этой теме. Значить, поставил себе ЧПУ для IP Board - все работает, все хорошо. Теперь опять-же вопрос по robots.txt -

Как запертить для индексации сессии? Т.е.есть напимер 2 ссылки с форума, по типу -

http://zagranitsa.com.ua/topic124.html

http://zagranitsa.com.ua/topic124.html?stat=0

Т.е., как видите, страница на форуме одна и та же, но индексируется дважды и имеет одинаковый контент.

Я понимаю, что можно написать в роботс.тхт строку

Disallow: zagranitsa.com.ua/topic124.html?stat=0 (взято к примеру, без соблюдения синтаксиса роботс.тхт)

, но а если таких страничек 1000 и каждая имеет свое уникальное имя? И, более того, каждый день появляется еще 10-20 новых.

Можно-ли как-то одной коммандой запретить индексировать подобные сессии?(или несколькими).

И еще - действительно-ли нужно запрещать к индексации /lofiversion ? Вроде как у меня там все страницы форума хранятся :-/////

rome.ro добавил 16.07.2008 в 16:27

И еще - что скажете по поводу robots.txt, приведенного по этой ссылке -

http://nodar.name/?p=30

webmasters:
Польности сайтом не надо запретить. Только

User-agent: *
Disallow: /lofiversion

Окей - это я понял. Так и сделаю. Теперь вопрос - зачем это делать?

rome.ro добавил 26.06.2008 в 13:55

Товарищи? :)

viКing:
я бы вам посоветовал его для начала оптимизировать, добавить мета-теги description и keywords, сделать уникальный title для каждой страницы, так как это сделано на этом форуме. Ну и посоветовали выше, запретить к индексации не нужные страницы, вроде профилей пользователей и т.п.

С этим я разберусь - это не проблема - просто я только сел за этот форум и у меня еще до этого руки не дошли - а так, конечно, сделаем:)

Только вот, хоть убейте, я не пойму зачем мне запрещать к индексации текстовую версию моего форума - ведь дело в том, что он ВООБЩЕ не индексируется(кроме страницы index.php) - вот и дилема - зачем запрещать форум к индексации, если он и так не индексируется?😕 (извините - я туплю, наверное).

Как запретить к индексации - я знаю:

User-agent: *

Disallow: /

только вот зачем это делать? 😕

_Ad:
вы через роботс.тхт запретите lo-fi версию индексить и анкоры на вывод отдельных сообщений, а то их у вас отдельных страниц с точки зрения поисковиков миллиарды получаются...

А по подробнее можно узнать?:) В смысле не "А ШО ЗА robots.txt"? А что такое "lo-fi версия и анкоры на вывод отдельных сообщений" - и зачем его запрещать? Ну и, конечно, какую комманду в роботс.ече прописать надо?

Извиняюсь за идиотство этих вопросов, но просто форумы - не моя это специальность - тем более сделаные кем-то. Если уж писать - то писать все самому - тогда и вопросов не возникает - "ачто да пачему?".

Спасибо.