Cоставить файл robots.txt для phpbb3 и vbulletin

[Удален]
1044

В общем есть 2 форума на phpbb3 и vbulletin. Нужно составить для них файлы robots.txt так, чтобы поисковая система Яндекс корректно индексировала их (то есть убрать дубли страниц и не нужные и повторяющиеся стандартные страницы, типа календаря, страниц регистрации и профилей пользователей (про пользователей не уверен, нужны они или нет)).

В общем, я думаю, кто в теме тот меня поймет.

[Удален]
#1

3aaaaa3, для форума phpbb3 можете создать файл robots.txt сами, детальнее смотрите тут

FladeX
На сайте с 07.11.2008
Offline
163
#2

Да, я там подробно всё расписал :) Но если будут какие-либо вопросы - не стесняйтесь, пишите в приват.

Услуги посредника на бирже контента: информационные статьи 40₽/1000, «продающие» тексты 50₽/1000. Пишите в личку. Помогаю правильно переехать на https (/ru/forum/973447). Подписывайтесь на мой канал в телеграм: https://t.me/fladex (https://t.me/fladex).
[Удален]
#3

Осмелился набрать в браузере http://нашлюбимыйсеофорум/robots.txt и увидел там такой набор для яндекса:

User-agent: Yandex

Crawl-delay: 3

Disallow: /usercp.php

Disallow: /misc.php

Disallow: /online.php

Disallow: /report.php

Disallow: /postings.php

Disallow: /private.php

Disallow: /sendtofriend.php

Disallow: /register.php

Disallow: /newthread.php

Disallow: /newreply.php

Disallow: /editpost.php

Disallow: /warn.php

Disallow: /search.php

Disallow: /search_forum.php

Может мне кто нибудь расшифровать, что здесь закрыто? Будут ли нормально индексироваться страницы с сообщениями и темами?

Veterblack
На сайте с 09.08.2006
Offline
70
#4

Ну вы же здесь на серче по этим ссылкам перейдите и сами увидите что закрыто в роботсе :)

Форум начинающих вебмастеров (http://wmboard.net)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий