- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Припустим есть сайт с уникальным контентом на тематику кулинарии. Как Google отнесется к тому, что в поиске по сайту станут также доступны рецепты из других сайтов, при этом, поисковые URL запрещены к индексации в robots.txt. То-есть, Google их не выведет в выдачу, но подозреваю, что учитывать как-то будет.
Здравствуйте.
Припустим есть сайт с уникальным контентом на тематику кулинарии. Как Google отнесется к тому, что в поиске по сайту станут также доступны рецепты из других сайтов, при этом, поисковые URL запрещены к индексации в robots.txt. То-есть, Google их не выведет в выдачу, но подозреваю, что учитывать как-то будет.
перечитал 2 раза..... С трудом понял суть написаного вопроса 😂
постарайтесь написать понятным языком, скриншоты сделать. Телепаты в отпуске.
Переформирую вопрос.
Влияет ли 100% копипаст (агрегация публикаций с других сайтов) закрытый от индекса через robots.txt на ранжирование сайта в Google?
перечитал 2 раза..... С трудом понял суть написаного вопроса 😂
постарайтесь написать понятным языком, скриншоты сделать. Телепаты в отпуске.
Как я понял задача следующая.
Взять контент с чужого сайта - рецепты блюд например,
И запретить роботу индексировать эти страницы .
Как это скажется на ситуации по сайту в целом?
а зачем закрывать их от индексации??? смысл?
xVOVAx, ну это типа копипаст.
xVOVAx, ну это типа копипаст.
Вы сами ответили на свои вопросы. Перевожу: "я собираю\ворую\парсю чужой контент, но хочу, чтоб мой сайт был в топе."
"закрытый от индекса через robots.txt на ранжирование сайта в Google", как сайт может ранжироваться, если он закрыт от индексации роботом ?
Минусовать репу не стоит. Это плохой тон в данном разделе.
"я собираю\ворую\парсю чужой контент
Точно также, как делают поисковые системы.
но хочу, чтоб мой сайт был в топе.
Верно. Потому, что у сайта есть свой авторский контент. А агрегация нужна только для того, чтобы пользователь всегда был удовлетворен поиском по сайту. Своих рецептов может не хватить, а я не хочу доставлять неудобства пользователю.
как сайт может ранжироваться, если он закрыт от индексации роботом ?
Закрыты страницы с копипастом. А сайт не закрыт.
Включите копипаст в тэг noindex и не надо никаких robots.txt, это нормальная практика.
я бы все таки не оставил текст для индексации, но со ссылкой на источник, так более правильно мое имхо. Гугл в любом случае увидит копированные тексты, и возможно даже определит первоисточник, при внешней ссылке это будет смотреться как я стырил, но не срываю, а при ноуиндекс и пр. конкретное воровство + не нужно забывать, что некоторые проекты с которых вы берете материал, умирают и вы становитесь обладателем уникально контента главное следить за внешними ссылками и удалять их когда они не нужны.
Включите копипаст в тэг noindex и не надо никаких robots.txt, это нормальная практика.
Какое отношение имеет Google к Яндекс разметке?
---------- Добавлено 15.11.2014 в 16:39 ----------
я бы все таки не оставил текст для индексации, но со ссылкой на источник, так более правильно мое имхо. Гугл в любом случае увидит копированные тексты, и возможно даже определит первоисточник, при внешней ссылке это будет смотреться как я стырил, но не срываю, а при ноуиндекс и пр. конкретное воровство + не нужно забывать, что некоторые проекты с которых вы берете материал, умирают и вы становитесь обладателем уникально контента главное следить за внешними ссылками и удалять их когда они не нужны.
Я тоже к этому склоняюсь. Тем-более, что агрегированные статьи выводятся только при условии, что пользователь инициировал поиск по сайту (отфильтровал рецепты по критерию либо ввел ингредиент). В этом случае, URL меняется на вид /?поисковый+запрос...
Рассматриваю два варианта: disallow: /? либо ничего не закрывать ибо Google и так вряд ли найдет эти страницы.
Насколько безопасно не закрывать динамически сгенерированные результаты поиска? Есть ли смысл в этом случае указывать rel="canonical"?