Как спрятать не нужные блоки от google.com?

[Удален]
1660

Говорят ajax прикрыли? (google.com индексирует ajax)

Есть у кого-то данные проверенные на этот счёт ? (правда индексирует?)

И какие способы ещё есть нормально убрать контент от google.com?

rel=noindex и robots.txt сделано

Sower
На сайте с 30.12.2009
Offline
651
#1

Можно запретить отдачу определённых файлов с контентом ботам через htacces.

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Hixon10
На сайте с 21.08.2010
Offline
125
#2
Говорят ajax прикрыли? (google.com индексирует ajax)

Сейчас глянул сохраненную копию - там нет контента, который аяксом подключается (google.ru).

Веду свой невзрачный блог (http://hixon.ru/).
[Удален]
#3
Sower:
Можно запретить отдачу определённых файлов с контентом ботам через htacces.

Применялась ли на практика данная идея?

---------- Добавлено в 06:44 ---------- Предыдущее сообщение было в 06:44 ----------

Hixon10:
Сейчас глянул сохраненную копию - там нет контента, который аяксом подключается (google.ru).

спасибо за информацию

Sower
На сайте с 30.12.2009
Offline
651
#4
tt13:
Применялась ли на практика данная идея?

Так вроде там всё элементарно, и не может не работать. Блокировка идёт по юзерагенту. Он и захочет получить содержимое, сервер ему не отдаст.

богоносец
На сайте с 30.01.2007
Offline
769
#5
Hixon10:
глянул сохраненную копию - там нет контента

Вроде ищет. Кэш.

Может в robots.txt скрипты не закрыли?

New Member
На сайте с 21.12.2008
Offline
211
#6

Я вообще понять не могу, о чем вы тут говорите.

Вопрос от ТС:

tt13:
(правда индексирует?)

Гугл индексирует аякс уже не один год.

tt13:
И какие способы ещё есть нормально убрать контент от google.com?

В выдаче решетка аякса # заменяется на знак вопроса ?

В чем проблема закрыть страницу?

robots.txt

мета тег robots для большей надежности

У гугла целая справка как работать с аяксом

Раскрутка сайтов (https://seomasters.com.ua/)
[Удален]
#7
New Member:
Я вообще понять не могу, о чем вы тут говорите.
Вопрос от ТС:

Гугл индексирует аякс уже не один год.

В выдаче решетка аякса # заменяется на знак вопроса ?
В чем проблема закрыть страницу?
robots.txt
мета тег robots для большей надежности

У гугла целая справка как работать с аяксом

Получается можно просто закрыть страничку в robots.txt и добавить rel=noindex, nofollow и этого будет достаточно?

New Member
На сайте с 21.12.2008
Offline
211
#8
tt13:
Получается можно просто закрыть страничку в robots.txt и добавить rel=noindex, nofollow и этого будет достаточно?

Nofollow и noindex лишняя работа, они от индексации страницу не спасут.

Лучший вариант и самый 100% работающий это к нужным страницам в код добавить тег:

<meta name="robots" content="noindex,follow" >

Можете поставить и nofollow, но тогда робот дальше переходить никуда не будет.

А если сделать как я написал, то индексировать страницу он точно не будет, но переходить дальше по другим ссылкам на этой странице он продолжит. Сами решайте, как вам угодно.

Sower
На сайте с 30.12.2009
Offline
651
#9
New Member:

В чем проблема закрыть страницу?
robots.txt
мета тег robots для большей надежности

У меня на сайте есть ссылка вида /download.php?.... Страницы по ссылке нет, по ней идёт скачивание файла. С первого дня в роботсе прописан запрет /download.php*, но каждый день гуглбот дёргает её.

wwwwww
На сайте с 29.04.2011
Offline
195
#10
Sower:
но каждый день гуглбот дёргает её.

Ну, а вдруг там что-то новое ;), ссылки, например.

Видишь? Свободная подпись.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий