Вопрос по robots.txt

valentina1980
На сайте с 19.11.2010
Offline
53
311

Здравствуйте. Захотелось мне в статьях делать содержание страницы и выделять заголовки <a href="#name"></a> и <a name="name"></a>. Но, как я понимаю, это будет являться дублями? Подскажите, пожалуйста, как именно такие дубли закрыть в robots.txt и вообще как поисковики относятся к таким "фишкам"?

Заранее благодарю за ответы.

wwwwww
На сайте с 29.04.2011
Offline
195
#1
valentina1980:
Но, как я понимаю, это будет являться дублями?

Это не дубли. Закрывать не надо.

Видишь? Свободная подпись.
Neamailer
На сайте с 23.12.2010
Offline
153
#2
valentina1980:
Здравствуйте. Захотелось мне в статьях делать содержание страницы и выделять заголовки <a href="#name"></a> и <a name="name"></a>. Но, как я понимаю, это будет являться дублями? Подскажите, пожалуйста, как именно такие дубли закрыть в robots.txt и вообще как поисковики относятся к таким "фишкам"?

Заранее благодарю за ответы.

В robots.txt закрываются папки и страницы. Теги, расположенные на странице, в роботс закрыть нельзя! :)

Мой крипто кошелек 366BsNeUWL7TguAyxFZZ7GUS78pMUVyULK на https://crypto-wallet.org/ru/ (Биткоин)
valentina1980
На сайте с 19.11.2010
Offline
53
#3

Спасибо, значит, буду смело использовать)

R
На сайте с 21.12.2010
Offline
138
#4
valentina1980:
Спасибо, значит, буду смело использовать)

Остается вопрос - "нафига?" Ваш функционал с использованием java на 100% реализуется.

Лучший хостинг для MODX Все просто ЛЕТАЕТ! (https://modhost.pro/?msfrom=bd6e3e1124cb4cdd93779563b690f3fe)
valentina1980
На сайте с 19.11.2010
Offline
53
#5
RUPak:
Остается вопрос - "нафига?" Ваш функционал с использованием java на 100% реализуется.

Мне надо:)

R
На сайте с 21.12.2010
Offline
138
#6
valentina1980:
Мне надо:)

<a name="name"></a> Вот это надо? 😒 Жестокий вы вебмастер. После таких конструкций вопросы про robots.txt выглядят вполне нормальными.

valentina1980
На сайте с 19.11.2010
Offline
53
#7
RUPak:
<a name="name"></a> Вот это надо? 😒 Жестокий вы вебмастер. После таких конструкций вопросы про robots.txtx выглядят вполне нормальными.

А что здесь криминального? Наоборот, мне кажется, что для читателей это удобно, чем всю статью до конца листать (а они иногда и по 10 000 знаков бывают), лучше в содержании нажать нужный пункт и сразу увидеть то, что интересно

---------- Добавлено 24.11.2012 в 18:03 ----------

RUPak:
После таких конструкций вопросы про robots.txt выглядят вполне нормальными.

Я не волшебник, а только учусь, и по-моему в этой ветке как раз и задают вопросы "новички" коим я и являюсь.

R
На сайте с 21.12.2010
Offline
138
#8
valentina1980:
А что здесь криминального? Наоборот, мне кажется, что для читателей это удобно, чем всю статью до конца листать (а они иногда и по 10 000 знаков бывают), лучше в содержании нажать нужный пункт и сразу увидеть то, что интересно

Без ссылок это же можно реализовать через java, и вроботам приятно, и пользователи довольны. Анкоры вообще вещь интересная, погуглите, особенно ссылкис гугла #анкор такого вида.

valentina1980
На сайте с 19.11.2010
Offline
53
#9
RUPak:
Без ссылок это же можно реализовать через java, и вроботам приятно, и пользователи довольны. Анкоры вообще вещь интересная, погуглите, особенно ссылкис гугла #анкор такого вида.

Я не знаю как такое реализовать через java:) Подглядела такие теги у конкурентов)) И анкоры тут не причем, я это буду использовать не для продвижения анкоров, а для удобства пользователей

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий