- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ребят, привет. Подскажите, как закрыть контент от индексации? Желательно универсальный вариант, при котором никакая ПС не видит данный контент (только если это не является "черным" методом, т.к. у нас СДЛ). Спасибо
Либо запретить роботам индексировать сайт
В файле robots.txt
User-agent: *
Disallow: /
или если нужно кусок текста закрыть, то выделить в теги <nofollow> и <noindex>
Либо запретить роботам индексировать сайт
В файле robots.txt
User-agent: *
Disallow: /
или если нужно кусок текста закрыть, то выделить в теги <nofollow> и <noindex>
Нужно закрыть кусок текста на странице. <nofollow> - это же только для ссылок.
Нужно закрыть кусок текста на странице. <nofollow> - это же только для ссылок.
Это в Яндексе работает - noindex
А так закрывайте в robots.txt нужные разделы или страницы.
если в куске контента нет разметки то CDATA в помощь, хоть видимость сделаете, что спрятали. хотя конкретно Гуглу любые такие "хитрости" по фигу - сожрёт и проанализирует всё, до чего дотянется. даже из js вытащит и освоит (если скриптом задумаете вставлять контент)...
Это в Яндексе работает - noindex
А так закрывайте в robots.txt нужные разделы или страницы.
Ребят, я в теме Google, как в я закрыть знаю, не знаю как в Г. Помогите, плиз.
stroydomen добавил 08.04.2011 в 10:32
если в куске контента нет разметки то CDATA в помощь, хоть видимость сделаете. хотя конкретно Гуглу такие "хитрости" по фигу - сожрёт и проанализирует всё, до чего дотянется...
Понял .спасибо. Тогда проще вообще эту часть текста убрать. Жаль, что юзер почитать не сможет.
Мне кажется для гугла не работает
В файле robots.txt
User-agent: *
Disallow: /
многие сайты видел, где это не работает.
самый универсальный вариант - сделать картинкой:)
самый универсальный вариант - сделать картинкой:)
В принципе отличный вариант. И контент не стырят, и юзер прочтет, и ПС не видят! отлично. Надо подумать насколько это сложно делать в картинке.
Работающий метод - контент, который нужно скрыть, подгружаем из внешнего JS-файла, а саму директорию с JS-файлом запираем в robots.txt от индексирования.
Работающий метод - контент, который нужно скрыть, подгружаем из внешнего JS-файла, а саму директорию с JS-файлом запираем в robots.txt от индексирования.
Интересный вариант. Можно с Вами как то связаться в ЛС?