Ну если на русском языке может ты и прав, хотя тоже смонительно. У меня англ сайт так что твоя "вскидка" не работает. Статьи все таки делаются для посетитлей и чтобы одну статю переделать и так чтобы она была читабельной, уйдет не 7 минут а минут 30 в лучшем случае, даже для челоека с хорошим языком. Ну конечно учитывая что мои новости-статьи не по 5 строчек, а по странице а то и больше
у меня есть раздел с новостями в котором порядка 5 тыс статей. Жизнь убить можно столько статей переписывать
правильно это как?
Я переписываюсь с одной SEO конторой и они утверждают что yahoo и msn относяться в дублированию статей намного суровее чем гугл. И что в этим поисковиках дублирование может стать причиной серьезного понижения вы выдаче. То что хорошо гуглу то яхе смерть получается
не должно быть такого. в последних рекомендациях webmasters guide таким образом советует закрывать страницы которые содержат дубликат, значит не должен он так думать
а что это не так как подтвердилось? Ссылочку на обсуждение подкиньте, плиз
Вроде это уже обсуждалось что внешние факторы такие как сквозняки не могут служить причиной бана или понижающих фильтров. Иначе гасить онкурентов можно просто так
это только меня или у всех по команде site: без ключа -sljktf выводит все проидексированные страницы включая suppl
можно сделать так. Удаляю страницы и ставлю 301 редирект на домашнюю страницу. так как существует вероятность что на эту страницу забредут по внешней ссылки то хоть не вылезет 404 ошибка а посетители попадут на домашнюю страницу. Прокатит такой вариант? Или это не решит проблему нахождения удаленной страницы в индексе?
я хочу в приницпе удалить страницы с сервака. Я так понимаю что если их просто удалить в индексе они еще длго могут болтаться, особенно если это сопли