Как закрыть контент от индексации?

12
S
На сайте с 30.09.2009
Offline
116
2972

Ребят, привет. Подскажите, как закрыть контент от индексации? Желательно универсальный вариант, при котором никакая ПС не видит данный контент (только если это не является "черным" методом, т.к. у нас СДЛ). Спасибо

Перелинковку сделал. Теперь думаю куда потратить денежки - сапа, мира или блоги :)
zaka4ek
На сайте с 24.03.2007
Offline
209
#1

Либо запретить роботам индексировать сайт

В файле robots.txt

User-agent: *

Disallow: /

или если нужно кусок текста закрыть, то выделить в теги <nofollow> и <noindex>

Продвигай с умом Sape (http://www.sape.ru/r.yoJRtSiZZR.php) Продвигай с умом Gogetlinks (https://gogetlinks.net/?inv=sya7n2)
S
На сайте с 30.09.2009
Offline
116
#2
zaka4ek:
Либо запретить роботам индексировать сайт
В файле robots.txt
User-agent: *
Disallow: /

или если нужно кусок текста закрыть, то выделить в теги <nofollow> и <noindex>

Нужно закрыть кусок текста на странице. <nofollow> - это же только для ссылок.

rank
На сайте с 01.12.2006
Offline
110
#3
stroydomen:
Нужно закрыть кусок текста на странице. <nofollow> - это же только для ссылок.

Это в Яндексе работает - noindex

А так закрывайте в robots.txt нужные разделы или страницы.

Грузите апельсины бочками, а ссылки пачками (http://www.sape.ru/r.OAWsDJUMeA.php)™ (с)
DiAksID
На сайте с 02.08.2008
Offline
236
#4

если в куске контента нет разметки то CDATA в помощь, хоть видимость сделаете, что спрятали. хотя конкретно Гуглу любые такие "хитрости" по фигу - сожрёт и проанализирует всё, до чего дотянется. даже из js вытащит и освоит (если скриптом задумаете вставлять контент)...

show must go on !!!...
S
На сайте с 30.09.2009
Offline
116
#5
rank:
Это в Яндексе работает - noindex
А так закрывайте в robots.txt нужные разделы или страницы.

Ребят, я в теме Google, как в я закрыть знаю, не знаю как в Г. Помогите, плиз.

stroydomen добавил 08.04.2011 в 10:32

DiAksID:
если в куске контента нет разметки то CDATA в помощь, хоть видимость сделаете. хотя конкретно Гуглу такие "хитрости" по фигу - сожрёт и проанализирует всё, до чего дотянется...

Понял .спасибо. Тогда проще вообще эту часть текста убрать. Жаль, что юзер почитать не сможет.

nik2019
На сайте с 28.04.2009
Offline
182
#6

Мне кажется для гугла не работает

В файле robots.txt

User-agent: *

Disallow: /

многие сайты видел, где это не работает.

Многодарю
Zaykin
На сайте с 14.01.2008
Offline
110
#7

самый универсальный вариант - сделать картинкой:)

S
На сайте с 30.09.2009
Offline
116
#8
Zaykin:
самый универсальный вариант - сделать картинкой:)

В принципе отличный вариант. И контент не стырят, и юзер прочтет, и ПС не видят! отлично. Надо подумать насколько это сложно делать в картинке.

Alex Agent
На сайте с 07.04.2011
Offline
304
#9

Работающий метод - контент, который нужно скрыть, подгружаем из внешнего JS-файла, а саму директорию с JS-файлом запираем в robots.txt от индексирования.

Всему свое время. Все сами принесут и все сделают. Быстрый и выгодный перевод денег Россия ↔ Украина онлайн (http://smartwm.ru/referral/cea1f09842be).
S
На сайте с 30.09.2009
Offline
116
#10
Alex Agent:
Работающий метод - контент, который нужно скрыть, подгружаем из внешнего JS-файла, а саму директорию с JS-файлом запираем в robots.txt от индексирования.

Интересный вариант. Можно с Вами как то связаться в ЛС?

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий