- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Будут ли банить ППС?
Улыбнуло) ППС это наверное имеется ввиду патрульно-постовая служба, а ПС это поисковые системы
По сабжу - вы ведь итак на своем опыте увидели что сайт на копипасте хорошо себя чувствует, зачем спрашивать мнения о сайте с частично технически неуникальным контентом? Если контент интересен, поведенческие факторы хорошие, то все будет в порядке
---------- Добавлено 26.01.2016 в 20:47 ----------
Если выкладываете для аудитории, то кто вам мешает закрыть такие страницы от индексации через robots.txt? Тогда аудитория увидит контент, а ПС заведомо ни каких санкций не введут.
Это на мой взгляд способ для мазохистов. Что, все сотни и тысячи страниц в роботс txt закидывать? Там ведь есть и ограничения на размер файла. Тут разве что вариант с метатегами noindex nofollow, но проводились ведь эксперименты когда поисковики и страницами с такими запретами посещали
Windakolit, так а если не делать в ноуфоллоу, разве не забанят поисковики? Просто планируется что неуника будет 95%
Это на мой взгляд способ для мазохистов. Что, все сотни и тысячи страниц в роботс txt закидывать? Там ведь есть и ограничения на размер файла.
Какие проблемы? Все страницы с неуникальным контентом добавляем в группу /non-unique-news/pagename , а в роботсе - Disallow: /non-unique-news/
Какие проблемы? Все страницы с неуникальным контентом добавляем в группу /non-unique-news/pagename , а в роботсе - Disallow: /non-unique-news/
Ну это ведь требует допила структуры урлов, не знаю что уж тут проще внедрить
---------- Добавлено 27.01.2016 в 18:18 ----------
Windakolit, так а если не делать в ноуфоллоу, разве не забанят поисковики? Просто планируется что неуника будет 95%
Так вы распишите подробнее свой опыт работы с неуник контентом, который у вас был. На его примере и обсудим
Ну это ведь требует допила структуры урлов, не знаю что уж тут проще внедрить
С чего Вы решили, что структура изначально не такая? Да и внедрение noindex и nofollow для определённых страниц тоже потребует допила и, действительно, непонятно, что будет проще.
А у инетмагазов 99.9% неуника. И че?