- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Неужели Панда так резко срабатывает? Пока сайт молодой Гугл его и переиндексирует-то не сразу, не говоря уже о наложении фильтра.
Нет, не срабатывает.
100 раз говорилось, что это апдейтовый алгоритм.
the_creator, инфа попала в индекс до того, как в роботсе появился Disallow: /
Мммм, экстрасенсы..
Проблемы то нет. Напиши одну страничку. Пусть будет и возраст сайта растет
Я обычно в такой ситуации после прикрепления домена закрываю его через htaccess так:
Разумеется надо парорль сгенерировать сюда: /path/to/.htpasswd
с помощью htpasswd
как только разработка закончена, то просто убираю авторизацию и гугл практически сразу все загоняет в индекс
Чтоб не было таких проблем, разрабатывайте в будущем на закрытом поддомене, это самый лучший вариант. И с него уже делайте копию на основной - так избавитесь от проблем с индексацией, да и не завалите работающий сайт, экспериментами.
Сайт на руби, так что апача на сервере нет.
---------- Добавлено 14.05.2013 в 19:03 ----------
Проблемы то нет. Напиши одну страничку. Пусть будет и возраст сайта растет
Дело в том что проект большой, конторка уже 8 месяцев разработку ведет и при плановом обновлении, эта контора случайно файл с роботсом потерла, а мы не заметили и заполняли раздел меню категорий, в котором около 200 категорий и гоша их все проиндексировал. Они все пустые.
Теперь страх попасть под гугловский зоопарк.
...и 150 страниц в индексе гугла, в выдаче тоже есть. Кто-нибудь может дать разъяснения?
Прорвете в вебмастере. Если выдаст, что урл запрещен- то скорее всего страницы попали до размещения роботса.
Или вариант- доступность по модифицированному урлу типа https и http, без ввв, с ввв, с ввв.ввв, при этом роботса по такому урлу нет.
---------- Добавлено 15.05.2013 в 13:39 ----------
Archi1407, Закрывайте.
Бывали случаи когда и рабочий сайт закрывали от индексации- с тестового домена роботс копировался.
Нет, не срабатывает.
100 раз говорилось, что это апдейтовый алгоритм.
Пора бы уже обновлять знания. Панду перевели на работу в реальном времени.
Так что да, панда может сработать быстро и теперь практически не диагностируется и не от каких апдейтов больше не зависит, т.к. их в принципе не будет)
http://www.seomoz.org/google-algorithm-change