Slay100

Рейтинг
70
Регистрация
09.12.2003
Должность
SEO
Интересы
Internet
NA
Azazel:
Навскидку - времени на подготовку и публикацию статьи - 7 минут.

Ну если на русском языке может ты и прав, хотя тоже смонительно. У меня англ сайт так что твоя "вскидка" не работает. Статьи все таки делаются для посетитлей и чтобы одну статю переделать и так чтобы она была читабельной, уйдет не 7 минут а минут 30 в лучшем случае, даже для челоека с хорошим языком. Ну конечно учитывая что мои новости-статьи не по 5 строчек, а по странице а то и больше

у меня есть раздел с новостями в котором порядка 5 тыс статей. Жизнь убить можно столько статей переписывать

Azazel:
MSN да, они за контент цепляются сильно. Но ИМХО, если грамотно скопипиздить статью, то никаких траблов ни с гуглей ни с МСН не будет.

правильно это как?

Я переписываюсь с одной SEO конторой и они утверждают что yahoo и msn относяться в дублированию статей намного суровее чем гугл. И что в этим поисковиках дублирование может стать причиной серьезного понижения вы выдаче. То что хорошо гуглу то яхе смерть получается

ValetRammstein:
Я так понимаю обнести всю страницу.
Но тогда есть может быть дурное но все же мнение: не подумает ли Гугл, что это какой-то спам - почему пользователь должен видеть страницу, но индексировать ее нельзя.
А может этот тэг и был придуман для того, чтоб вебмастер сам указывал слабые места :)

не должно быть такого. в последних рекомендациях webmasters guide таким образом советует закрывать страницы которые содержат дубликат, значит не должен он так думать

andrew13_k:
И уже обсуждалось, что это не так ;)

а что это не так как подтвердилось? Ссылочку на обсуждение подкиньте, плиз

SavaHost:
Про сквозняки параллельная тема была. Есть там какая-то блажь у Гугля в последнее время, хорошо бы хоть анкоры разнообразить, если получается...
Я со своих сайтов понемногу снимаю особо одиозные. Помогает. 🚬

Вроде это уже обсуждалось что внешние факторы такие как сквозняки не могут служить причиной бана или понижающих фильтров. Иначе гасить онкурентов можно просто так

это только меня или у всех по команде site: без ключа -sljktf выводит все проидексированные страницы включая suppl

можно сделать так. Удаляю страницы и ставлю 301 редирект на домашнюю страницу. так как существует вероятность что на эту страницу забредут по внешней ссылки то хоть не вылезет 404 ошибка а посетители попадут на домашнюю страницу. Прокатит такой вариант? Или это не решит проблему нахождения удаленной страницы в индексе?

svift:
Ну а метатегом?

я хочу в приницпе удалить страницы с сервака. Я так понимаю что если их просто удалить в индексе они еще длго могут болтаться, особенно если это сопли

Всего: 337