- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть на сайте две страници А и Б у них одинаковый контент.
При этом страница А имеет ПР=3, а страница Б ПР=0.
Какую из етих страниц Гугл посчитае копией? Удаляет ли копии Гугл из своего индекса?
Хто его знает? Говорят что гугл палит такое когда одинковых страниц сотни-тысячи. А 2-3 страницы это не повод.
Однозначно могу сказать что не всегда совпадения контента является гарантией того что страницу удалят, даже при 100 совпадении могут оставить в индексе. Хотя есть и обратные примеры когда две страницы на 100 совпадают и одну выкинули из индекса. Я лично так и не вывел для себя при каких условиях выкидывают
Огигиналом будт считаться та, которая попала в индекс раньше. Копия в индексе будет, а вот в СЕРПе нет. Бывают конечно перегибы, но они скорее исключения чем правила.
есть куча примеров когда с моего сайта делали страницы-копии и они хороши жили как в серпе так и в индексе. Некоторым страницам по 5-6 лет а некоторые появились недавно. Так что думаю не стоит утверждать что есть перегибы, а что можно считать правилом. Правила пишет гугл, а вы их не знаете
есть куча примеров когда с моего сайта делали страницы-копии и они хороши жили как в серпе так и в индексе.
И можно увидеть примеры?......... Я же говорил "попала в индекс", а не "была создана". Чувствуете разницу. Если статью с маленького сайта перепечатает большой и часто индексируемый, то она попадет в индекс раньше и для гугла будет оригиналом.
И можно увидеть примеры?......... Я же говорил "попала в индекс", а не "была создана". Чувствуете разницу. Если статью с маленького сайта перепечатает большой и часто индексируемый, то она попадет в индекс раньше и для гугла будет оригиналом.
к сожалению не могу дать примеры из за соображений анонимности своих проектов. но поверьте мне, конкуренты воруют и делают копии моих страниц один в один , только ссылки свои ставят и при это даже бывает такое что их копии по низкочастонтникам стоят выше моих. И сайты этих воров не больше и раскрученнее чем мои.
к сожалению не могу дать примеры из за соображений анонимности своих проектов. но поверьте мне, конкуренты воруют и делают копии моих страниц один в один , только ссылки свои ставят и при это даже бывает такое что их копии по низкочастонтникам стоят выше моих. И сайты этих воров не больше и раскрученнее чем мои.
Ну тогда не знаю........ по моим проектам всегда происходит так как я описал
ну вот и я не знаю :-)
я уверен что ни количество текста ни наличие в сети дуликата не является достаточным условием для фильтра таких страниц. Тут идет комплекс причин
при дубле выше будет стоять та страница, на которую стоит жирнее бека...
при дубле выше будет стоять та страница, на которую стоит жирнее бека...
опять одно и тоже. Да не все так просто!