- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Проблема такая, есть некий каталог, товаров, услуг - не важно. Первый блок идет общий для всех. Из за чего гугл считает все страницы похожими и валит их в supplimental.
Добавлять нового туда больше ничеге. В общем меня интересует конкретный вопрос, какими (легальными) способами можно закрыть часть текста сайта от индексации поисковой системой?
З.Ы.
Пришлось создать тему заново, доблестный модератор удалил ее, за слово ТЕКСТА в теме большими буквами (выделения смысловой нагрузки). Прошу прощения у тех, кто уже ответил.
<script language="JavaScript">document.write("Этот текст не индексируеться")</script>
<script language="JavaScript">document.write("Этот текст не индексируеться")</script>
JonnyB
Вы часом не из двадцатого столения? 😂
Если гугль хочет, он js легко индексирут, темболее документ врайт. Как минимум надо выносить js в одельный файл, закрытый от индексации в роботс, но можно налеть на наказание за клоакинг 🙄
Вот же странный эффект. Ладно когда подсовывают лишнее, но когда пытаются убрать... напороться на клоакинг... ну она по сути то и есть, но я же не виноват что алгоритмы гугла такие, что он разные страницы считает идентичными.
JonnyB
Вы часом не из двадцатого столения? 😂
Если гугль хочет, он js легко индексирут, темболее документ врайт. Как минимум надо выносить js в одельный файл, закрытый от индексации в роботс, но можно налеть на наказание за клоакинг 🙄
Давайте ссылку на проиндексированный яваскриптовый текст.
🤣
JonnyB,
А че пост переписали? Чтобы дурь не так перла?
Pike, ага. Так пример будет, или это слова на ветер?
JonnyB,
Судя по тому, как Вы тут себя ведете, Вы умеете пользоваться разными кнопками, в том числе и поиском гугля. Поищите году этак во втором, когда эта тема еще не была доисторической. Как раз в том году мои аффилиаты стали вылазить в серпсах по тексту моей яваскриптной рекламы. Тогда многие подумали, что гугль научился читать яваскрипт. На самом деле, гугдебот просто стал дергать ремотные .js, а скрипты он читал и раньше - если хотел.
Тогда просто зарегясь в гугл.адсенсе можно было бы получить не одну сотню ссылок с морд неплохих сайтов..
Проблема такая, есть некий каталог, товаров, услуг - не важно. Первый блок идет общий для всех. Из за чего гугл считает все страницы похожими и валит их в supplimental.
Добавлять нового туда больше ничеге. В общем меня интересует конкретный вопрос, какими (легальными) способами можно закрыть часть текста сайта от индексации поисковой системой?
Целыми страницами можно используя rel="nofollow" в ссылках на них (как например на этом форуме происходит со страницами профилей пользователей и страницей поиска) и в самих страницах можно через <meta name="Robots">. Этот способ позволяет легально разрешить/запретить конкретному роботу индексировать страницу.
если скрывать часть текста на странице - то идея была, в принципе, верной. Плясать надо от java script. В конце концов, можно по-сложнее придумать технику, нежели просто document.write("некоторый текст").
Например как-нибудь енкодировать тут текст, а потом декодировать.
Или подключать внешний js, а сам этот файл js запретить для гугла в robots.txt
Можно применить AJAX - тогда кодировать ничего и не надо.
Просто подгружаете с помощью AJAX некоторую страницу, а ее индексирование запрещаете через robots.txt
На худой конец - iframe с тем же запретом индексации страницы iframe