Sergio Maricone

Рейтинг
30
Регистрация
07.06.2012

С прошлой недели трафик +30% с гугля. Все поизиции на месте ни в + или в -, скорее он снял часть пессимизации. Правда конверт упал... не понимаю, что за трафик такой :(

Буржнет.

Sower:
Чуть чуть беременная что-ли? :)
Не разделяю вашего мнения.

Я его не навязываю... есть серьезный личный опыт выхода из под панды с 12 миллионов страниц до 700К+

Пессимизация есть... ее не может не быть... просто логично предположить, что одна часть алгоритма клеит, и, очевидно, что процесс не быстрый, а вторая определяет че с сайтом делать...

И вот пока первая часть не пропишет все в БД и в датацентры, вторая об этом не узнает...

Более того, склейка происходит обычно за 1-3 недели... А призраки давно убиенных страниц бродят в гугле до года...

Sower:
Даже если копии будут висеть пол года, санкций не будет, ибо все грамотно обработаны 301 редиректом, согласно рекомендациям гугла. А безобидная копия только повышает трафик. :)

Не совсем так. На сайте будет небольшая панда (я бы сказал, пандочка :) ), т.к. гугл считает, что страницы дубли внутри сайта. Будет пессимизация, не существенная, но будет.

Никитос:
Буду очень благодарен за ответы и советы:)

Согласно моему опыту, лучше всего:

1. Клеите страницы со старых -> 301 -> ЧПУ

2. Для ускорить процесс удаления из индекса старых страниц - поиск по маске в гугле и в ВМТ удалять. Удалять так же те, что он выдает в дублях в том же ВМТ

6-10 месяцев гугл будет "помнить" старые страницы и в "голове держать" что они дубли. Если не удалять их через ВМТ... Если удалять, вопрсо можно закрыть за 1-2 месяца (зависит от числа страниц)

Альтернативы такие:

1. Можете не клеить, а делать 404, но тогда потеряете вес удаленных страниц и если на них были внешние входящие, то, очевидно, что все они теперь будут вести на 404.

2. Можно внутри старых страниц прописывать каноникал на ЧПУ и в мета ставить noindex, тогда он их быстрее выбросит из головы, но читайте выше про потерю веса...

Если страницы закрыть в роботс.тхт, то они ОЧЕНЬ долго не отвалятся...

zik:
Подскажите что делать?

Я бы тексты проверил бы на предмет воровства. Может панда на вас упала?

Ну и заодно, чтоб исключить панду, убедиться, что нет дублей контента внутри сайта...

Mardovia:
не будет, но сливается долго

Не долго. 2-2,5 недели.

И 301 лучше в данном случае клеить постранично.

Гугл игнорирует частоту индексации, указываемую в мета.

Если картой сайта скормить, но тогда всплывает масса 404 в вмт. Они вроде как не влияют на ранжирование, но, могут быть врианты.

Можно просто удалить их в вмт, если их число конечное и вменяемое. То, что и рекомендуют в гугле - отдавать 404 и удалить из индекса. Долго и нудно, но а что делать?

А как отнесутся. ХЗ, если 404 вдруг стало оч много, могут обидеться.

d&d:
Столкнулся с такой проблемой как с Гуглом, так и с Мэйлом.
Есть страница по адресу: site.ru/service.html
В логах заметил, а затем и в выдаче, что поисковик индексирует страницу такого вида:
site.ru/service.html/images/contacts/rent/commerc/и т.д./какая-нибудь страница.html
т.о. страницу service.html считывает как каталог и включает другие каталоги, формируя какой-то бредовый путь. При этом, поисковик целый день может ходить по таким лже-страницам, не и индексировать нормальные страницы.

Или страница с битыми ссылками, или проблема, что более вероятно, в относительных или абсолютных путях внутри хтмл-кода. Т.е. поисковик пляшет не от корня сайта, а от текущей страницы...

vip-moto:
Собственно возник вопрос, при несуществующей странице или категории что лучше отдавать 404 или делать 301 на главную. Просто столкнулся с тем что унекоторых конкурентов на удаленных страницах 301 на главную🍿

Если удаленная страница обладала трастом, на нее были внешние ссылки, то 301 на релевантную или стартовую, если ничего такого и рядом, и полезность ее была равна 0, то лучше 404 с навигацией.

Если задача стоит избавится от нее и викинуть из индекса, то 410 с навигацией.

saler2007:
новый интернет-магазин, сео - по всем правилам, с нуля, контент весь уникальный, самописный, сделана карта для гугла и т .д. и т.п.

добавлен в Гугл-вебмастер. Сразу выдало "что в роботс.тхт некоторое страницы закрыты для индексирования" хотя это не правда. Ну, думаю, дело времени. Вобщем при всем при этом уже в вечеру в индексе было около 70 страниц (проверял через site:mysite.ru). Проверяю сегодня: в веб-мастере все по-старому: "проиндексировано страниц - 0", проверяю через поиск (site:mysite.ru) - ни одной страницы нет в индексе.

как и почему такое могло произойти?😕

Боюсь наврать, но что-то где-то подобное уже описывалось. Гугль помнит предыдущие настройки сайта или домена... может врет моя подкошенная пингвинами и пандами память :)

Всего: 288