Как закрыть часть текста от гугла

12
Lord Maverik
На сайте с 15.04.2003
Offline
471
1037

Проблема такая, есть некий каталог, товаров, услуг - не важно. Первый блок идет общий для всех. Из за чего гугл считает все страницы похожими и валит их в supplimental.

Добавлять нового туда больше ничеге. В общем меня интересует конкретный вопрос, какими (легальными) способами можно закрыть часть текста сайта от индексации поисковой системой?

З.Ы.

Пришлось создать тему заново, доблестный модератор удалил ее, за слово ТЕКСТА в теме большими буквами (выделения смысловой нагрузки). Прошу прощения у тех, кто уже ответил.

RedMall.Ru (https://redmall.ru) - Товары из Китая (Таобао, Tmall) с проверкой качества, скидка для форумчан 7% Партнерская программа 2 уровня: 5% + 5%. Подробнее. (https://redmall.ru/about/partner/)
Дмитрий
На сайте с 23.08.2006
Offline
222
#1

<script language="JavaScript">document.write("Этот текст не индексируеться")</script>

Разрабатываю и автоматизирую на php http://jonnyb.ru/
Pike
На сайте с 13.07.2004
Offline
79
#2
JonnyB:
<script language="JavaScript">document.write("Этот текст не индексируеться")</script>

JonnyB

Вы часом не из двадцатого столения? 😂

Если гугль хочет, он js легко индексирут, темболее документ врайт. Как минимум надо выносить js в одельный файл, закрытый от индексации в роботс, но можно налеть на наказание за клоакинг 🙄

free hosting (http://rahost.com)
Lord Maverik
На сайте с 15.04.2003
Offline
471
#3

Вот же странный эффект. Ладно когда подсовывают лишнее, но когда пытаются убрать... напороться на клоакинг... ну она по сути то и есть, но я же не виноват что алгоритмы гугла такие, что он разные страницы считает идентичными.

Дмитрий
На сайте с 23.08.2006
Offline
222
#4
Pike:
JonnyB

Вы часом не из двадцатого столения? 😂
Если гугль хочет, он js легко индексирут, темболее документ врайт. Как минимум надо выносить js в одельный файл, закрытый от индексации в роботс, но можно налеть на наказание за клоакинг 🙄

Давайте ссылку на проиндексированный яваскриптовый текст.

🤣

Pike
На сайте с 13.07.2004
Offline
79
#5

JonnyB,

А че пост переписали? Чтобы дурь не так перла?

Дмитрий
На сайте с 23.08.2006
Offline
222
#6

Pike, ага. Так пример будет, или это слова на ветер?

Pike
На сайте с 13.07.2004
Offline
79
#7

JonnyB,

Судя по тому, как Вы тут себя ведете, Вы умеете пользоваться разными кнопками, в том числе и поиском гугля. Поищите году этак во втором, когда эта тема еще не была доисторической. Как раз в том году мои аффилиаты стали вылазить в серпсах по тексту моей яваскриптной рекламы. Тогда многие подумали, что гугль научился читать яваскрипт. На самом деле, гугдебот просто стал дергать ремотные .js, а скрипты он читал и раньше - если хотел.

Дмитрий
На сайте с 23.08.2006
Offline
222
#8

Тогда просто зарегясь в гугл.адсенсе можно было бы получить не одну сотню ссылок с морд неплохих сайтов..

smscat
На сайте с 23.02.2006
Offline
50
#9
Lord Maverik:
Проблема такая, есть некий каталог, товаров, услуг - не важно. Первый блок идет общий для всех. Из за чего гугл считает все страницы похожими и валит их в supplimental.
Добавлять нового туда больше ничеге. В общем меня интересует конкретный вопрос, какими (легальными) способами можно закрыть часть текста сайта от индексации поисковой системой?

Целыми страницами можно используя rel="nofollow" в ссылках на них (как например на этом форуме происходит со страницами профилей пользователей и страницей поиска) и в самих страницах можно через <meta name="Robots">. Этот способ позволяет легально разрешить/запретить конкретному роботу индексировать страницу.

Hi!
На сайте с 15.12.2006
Offline
103
Hi!
#10

если скрывать часть текста на странице - то идея была, в принципе, верной. Плясать надо от java script. В конце концов, можно по-сложнее придумать технику, нежели просто document.write("некоторый текст").

Например как-нибудь енкодировать тут текст, а потом декодировать.

Или подключать внешний js, а сам этот файл js запретить для гугла в robots.txt

Можно применить AJAX - тогда кодировать ничего и не надо.

Просто подгружаете с помощью AJAX некоторую страницу, а ее индексирование запрещаете через robots.txt

На худой конец - iframe с тем же запретом индексации страницы iframe

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий