stroydomen

Рейтинг
116
Регистрация
30.09.2009

Ребят, это все понятно. Я говорю о том, что например не в один пост я добавлю новость, а сразу в три поста, но новость одна и таже. Так вот ПС примет как обновление все три страницы или только одну из них? спасибочки

Alex Agent:
Работающий метод - контент, который нужно скрыть, подгружаем из внешнего JS-файла, а саму директорию с JS-файлом запираем в robots.txt от индексирования.

Интересный вариант. Можно с Вами как то связаться в ЛС?

Zaykin:
самый универсальный вариант - сделать картинкой:)

В принципе отличный вариант. И контент не стырят, и юзер прочтет, и ПС не видят! отлично. Надо подумать насколько это сложно делать в картинке.

rank:
Это в Яндексе работает - noindex
А так закрывайте в robots.txt нужные разделы или страницы.

Ребят, я в теме Google, как в я закрыть знаю, не знаю как в Г. Помогите, плиз.

stroydomen добавил 08.04.2011 в 10:32

DiAksID:
если в куске контента нет разметки то CDATA в помощь, хоть видимость сделаете. хотя конкретно Гуглу такие "хитрости" по фигу - сожрёт и проанализирует всё, до чего дотянется...

Понял .спасибо. Тогда проще вообще эту часть текста убрать. Жаль, что юзер почитать не сможет.

zaka4ek:
Либо запретить роботам индексировать сайт
В файле robots.txt
User-agent: *
Disallow: /

или если нужно кусок текста закрыть, то выделить в теги <nofollow> и <noindex>

Нужно закрыть кусок текста на странице. <nofollow> - это же только для ссылок.

nick889:
stroydomen, для гугла <nofollow> , но вроде на него сейчас гугл не обращает особого внимания.

Это только для ссылок, а не для контента.

nick889:
stroydomen, А по поводу закладок, то тут стоит от апи яндекса Тык

А вот за это спасибо. А никаких последствий для сайта (плохих) быть не может от этого?

А я вот за один домен уже пол года борюсь. Купил домен, он под АГС, сделал наш коммерческий сайт реальной фирмы, а Платон ну никак не хочет индексировать. Жду и работаю. Но уже начал сомневаться в правильности решения.

одинаковый вес у них будт. одинаковый при ваших условиях описанных выше.

Mr.Smile:
Я под столом! 😂 Смешно! 😂 Петросян отдыхает! 😂



Вообще-то они парсят текст, картинки и видео...... А не скрипты.... 🍿

я не знаю что они парсят и как, а просто ищу варианты защиты.

um-seo:
Никак!
Нормально сделанный парсер, распарсит страниц от и до (пардон за тавтологию), очистит от всех мусорных тегов.
Придумывайте упоминания в самом тексте, свои, уникальные ;)

А если сделать такой вариант защиты.

В исходном тексте есть скрипт, который проверяет адрес домена на котором сейчас расположена страница. И есил адрес не родной, то выводится в тексте 2-3 сслыки на домен или упоминание домена источника. как вам такой вариант?

Всего: 908