- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
История грустная, попробую кратко и детально изложить:
Выложил сайт на свой сервер, однако ошибся с настройкой веб-сервера. Он по всем доменныым именам отдавал содержимое моего основного.
Сначала гугл шустро все проиндексировал и начал выдавать в поиске, но когда позиции стали улетать за сотню - насторожился и начал искать проблемы. Первым делом обнаружил все это в Гугле по поиску точного вхождения фразы со страниц. Много валерьянки, почитал и зарегистрировал все доменные имена в панели Вебмастера. Указал переезд сайта по всем доменным именам, где зеркалился контент и сделал постраничный редирект 301. Все страницы зеркал в течение недели вылетели из поиска, основное зеркало полностью проиндексировано и участвует в поиске, однако позиции по 99% ключевиков - за сотню... Подскажите, это временная пессимизация или фильтр звериный? Нужно время или стоит предпринимать какие-либо действия?
Еще грустнее ситуация с Яшей. Пока занимался гуглом - постоянно проверял что происходит у Яндекса. Он проиндексировал все 24 страницы основного домена, Панель Вебмастера просила подождать 1-2 апа до полной идилии... Поиск по фразам со страниц в выдаче отсутствовал, думал ято яша зеркал не увидел... Тихо радовался... Однако в период с 4 по 10 мая количество проиндексированных страниц начало снижаться и у 10 мая доползло только до одной главной странице в индексе. После апа 12.05 в поис вывалились и зеркала :( Я их по быстрому зарегестрировал в Панели Вебмастера и теперь жду у моря погоды. Панель Вебмастера показывает, что у всех зеркал тоже в поиске только главная страница сайта, проиндексировано везде тоже 1 страница. Исключенных страниц нет нигде. На всех зеркалах стоит 301 редирект уже 3-4 недели. Мне хана или ждать робота с клеем? :crazy: Писать в саппорт?
Прошу помощи и советов, спасибо.
---------- Добавлено 13.05.2013 в 12:15 ----------
Еще апдейт.
Читаю при АГС, проверил сайт на http://xtool.ru
Траст вырос с 2 до 3-х, Санкции в Яндексе, АГС: Нет данных.
Это неизвестно или отсутствуют?
Написал о проблеме Щукину, ответили через 6 часов:
Здравствуйте, Андрей!
Ваш сайт начал индексироваться, при обращении робота к Вашему сайту никаких проблем или ошибок не возникло. В ближайшее время он сможет появиться в поиске. Скорее всего, это произойдёт после одного-двух обновлений поисковой базы. Пожалуйста, подождите немного.
Это значит, что все в порядке и мои глупости прошли без последствий?
1. Размыто описана проблема с зеркалированем контента. На это м хостинге было пару ваших сайтов, на которых стало показывать контент одного из них? Или там только один сайт, но его проиндексировало на разных доменах? При втором варианте для Яндекса надо просто прописать в файле Host в robots.txt, и все склеится через пару апов.
2. Не надо парится, xtool.ru не показатель, н который следует обращать сильно внимание.
Спасибо за ответ. На этом IP-адресе не было сайтов, но был проброшен DNS, на котором висели все мои доменные имена. После перехода с Апача на nginx получил сюрприз в виде ответа nginx на любой запрос к моему адресу в виде подстановки дефолтового сайта, прописанного первым (в том чиосе и по IP-адресу). Апач такого не творил, отдавал только свою страницу. В результате, когда выложил сайт, ПС полез ко мне и давай индексировать все мои доменные имена, а nginx по всем адресам ПС-ам поотдавал страницы моего сайта. В гугле на всех доменах проиндексировалась главная, остальные страницы по 3-4 прикрепились к разным доменам. Но вроде как в Гугле я все уже прописал, все домены из поиска по точному вхождению повылетали, все страницы в поиске по основному доменному имени. Только вот позиции поулетали. Сначала был на 10-25 местах, а после склейки вылетел за сотню...
За яндекс переживаю, но ответ Щукина вроде вдохновляет.
Проблема в том, что уже месяц стоит 301 редирект со всех доменных имен на основной мой сайт. Когда добавлял проиндексированные Яшей дубли к себе в Вебмастер, он предупредил, что через редирект он robots.txt не видит и индексировать ничего не будет.
Вы ведь имели ввиду, что хост нужно прописать на каждом доменном имени, которое подхватил Яша, правильно? Тогда нужно настраивать везде виртуальный хост, копировать на все домены сайт, убирать редирект и прописывать хост. Кормить это все Яше и ждать? Как я понял из мануала Вебмастера, то 301 должно быть достаточно. Там или хост в robots.txt или 301 редирект. Или я неверно прочитал.
В общем склейка как таковая - это вопрос номер два, курю Форум и грызу ногти :) Переживаю что Яша увидел столько дублей и на помойку меня отправил со своими зверями... Или зеркала - это не дубликат контекта и голову за это не отрывают? Блин, но 15-20 зеркал...
---------- Добавлено 13.05.2013 в 20:17 ----------
Виноват, сайты на доменных именах как бы были... На некоторых стояли заглушки с именем доменного имени. В том числе и на основном. Эта заглушка до сих пор в кеше Гугла не обновилась, блин. Баловался настройкой виртуальных хостов и разбирался с параметрами веб-сервера. Это меняет ситуацию?
Если уже стоит редирерект, то не надо его убирать и парится с виртуальным хостом. Просто на будущее: если бы в такой ситуации был прописан Host в robots.tx, то Яндекс, увидев ваш сайт по любому неправильному урлу, загрузил бы по тому урлу и robots.tx. И он бы понял, что этот домен отдельно индексировать не надо, так как это зеркало основного сайта, который нормально указан в robots.tx. Жаль Гугл еще официально этой директивы не поддерживает.
Еще раз спасибо. В том то и проблема, что обнаружил свой косяк очень поздно, да и то, только в Гугле. Для него и сделал редирект и прописал каждый сайт в панель Вебмастера для того, чтобы указать перенос сайта.
В Яше такого не обнаруживалось и я решил, что ему было лень лазить по остальным. Но ап 12.05 показал, что он тоже шустрый и тут мне поплохело.
Как перенос через хост сделать правильно я уже почти наизусть знаю (благодаря этому Форуму), но я с этим опоздал...
Подскажите, при склейке таких вот зеркал пессимизация Гугла норма, или это проблемы оптимизации и возраста сайта?
Я не подскажу, практики по таким случаям нет. Ну, теоретически пессимизация могла быть только временная и вам остается только ждать, пока гугл все поклеит.
Судим логически: если бы сайт был старым (ну скажем, больше года), и тогда у вас такой косяк произошёл, то может по позициям бы и не заметили, те другие домены на идентичном континенте в индекс бы даже не попали нормально. А так вы с молодым сайтом продублировали контент…
Возможные действия:
- тупо ждать
- добавить парочку свежих статей уникальных (рекомендую в любом случае), изменить немного тексты на главной и разделах. По возможности и на внутряке, если мало страниц.
- если все будет плохо - забить болт и делать новый сайт на другом домене. Если вложения денег\времени в старый были минимальны.
Ну, то что таких "героев" как я тут нет, я и не сомневался :)
Страниц было 24, на каждой более 3000 знаков, закинул еще одну страницу на более чем 4000 знаков, пишу еще одну.
Беда в том, что это сайт моего ремонтного предприятия... Так что буду ждать и переживать!
Спасибо за помощь!