- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть у клиента страничка-раздел сайта http://site.ru/1 Полезная и значимая страница сайта. Частенько откручивается в дирехте. Получает естественные ссылки и прочие радости. Ранжируется кошерно.
В прошлый ап эта страница вылетела. Отписал Платону. Ответ: "у вашей страницы http://site.ru/1 появился дубликат http://site.ru/1-dublicat, вот поэтому ваша страница и выпала". Я проверяю дубль на наличие в поиске, его там нет! К слову сказать, каждый человек более-менее разбирающийся в движке с которым работает понимает, какие дубли могут в принципе появляться у него из-за самого скрипта, а какие из-за криво-бито-специально оставленной ссылки в сети. Ни первое, ни второе не подтвердилось. Соответственно мне прислали в ответе чушь (мой вывод).
Пишу второе письмо, получаю ответ из серии:
"В некоторых случаях в обработке дублирующих страниц могут случаться неточности, вследствие чего ни одна из страниц в поиске некоторое время не участвует."
Люди, теперь вместо "спасибо за то что обратили внимание... В скором времени ваша страница появится" морочат голову какими-то дублями??? :eek:
морочат голову какими-то дублями
Я вот давеча листал логи, наблюдал, как Яша сосёт страницы, запрещённые к индексации. Больше того - ссылок на них нет нигде, просто они робят на Друпале даже при включенном ЧПУ. Дубли что ли ищет, сволота? :)
Я вот давеча листал логи, наблюдал, как Яша сосёт страницы, запрещённые к индексации. Больше того - ссылок на них нет нигде, просто они робят на Друпале даже при включенном ЧПУ. Дубли что ли ищет, сволота? :)
У меня вопрос не связан с роботсом и прочими "модными" ныне выкрутасами со словом disallow :)
Вопрос прост, трастовый сайт, заметная страница по меркам отрасли, ну и интернета в частности и вдруг откуда ни возьмись появляется дубль, который даже потрогать в выдаче нельзя ну и вместо падения в серпе или смены релевантной или еще каких-то костылей, страница машет рукой и говорит "тю-тю"!!
Симптомы подобные этому кто-нибудь еще кроме меня встречал?
Мне сегодня тоже сменил страницу, в следствие чего вылет из топа в 30-ку. Сменилась на такую же, только с добавленным словом на конце (на сайте вообще такого нет и не было). Видимо, робот сам научился придумывать чпу.
Не зря такую большую тему на серче раздули. Кажется в соседнем разделе, "глюк... " называется. Там как раз пишут про удвоение страниц и беков. Яндекс просто решил запасной дубль интернета сделать :)
Я бы на вашем месте продолжил писать в ТП и добиваться от них истины. Если ошибка произошла на их стороне (а из ответа видно, что это так), то пускай признают это и исправляют. И пускай объясняют, какими принципами они руководствуются, исключая её из поиска "на некоторое время".
У меня вопрос не связан с роботсом и прочими "модными" ныне выкрутасами со словом disallow
Да не, я понял всё. Чуть дополню:
1) у меня редиректы стояли (с /?q=node123 на урл с ЧПУ/123) Какого хрена, спрашивается, Яша шарился по тем урлам? Думается мне, что он что-то таки знает;
2) не нашли дубль - не значит, что его нет;
3) Платоны вроде признают - косяк с их стороны.
Всё имхо, ессено. Может хостинг подвёл? У меня порой ни с чего страницы выдают 30х | 40х. И мельтешат в выдаче, на пару апов.
P.S. А вообще да, странная мутотень.
basilic, Посмотрите пожалуйста если не сложно было поднятие кого-нибудь из конкурентов на место этого сайта или выше. И были ли ещё резкие падения сайтов находящихся в топе по тем же запросам что и эта страница.
basilic, извините, если немного не по теме, но тоже есть одна странность, и тоже связана со странными дублями.
Есть сайт без движка, построен на инклудах. На каждой странице с помощью php подгружаются header.txt, navigation.txt и footer.txt. Так вот эти самые txt файлы уже 3-4 апа в индексе и никак не хотят вылетать. Да и как они вообще, собственно, проиндексировались, хз.
Пишу второе письмо, получаю ответ из серии:
"В некоторых случаях в обработке дублирующих страниц могут случаться неточности, вследствие чего ни одна из страниц в поиске некоторое время не участвует."
Люди, теперь вместо "спасибо за то что обратили внимание... В скором времени ваша страница появится" морочат голову какими-то дублями??? 😮
Часто такое бывает. Выпадает страница, но в индексе ни дублей, ни страниц нет.
Да не, я понял всё. Чуть дополню:
1) у меня редиректы стояли (с /?q=node123 на урл с ЧПУ/123) Какого хрена, спрашивается, Яша
Он редиректясь и сканирует сайт, старые урлы ведь не убиты.
Я вот давеча листал логи, наблюдал, как Яша сосёт страницы, запрещённые к индексации. Больше того - ссылок на них нет нигде
Аааа, ну может какой конфиг, который открыт и проиндексен генерит/ссылается на /?q= ?
basilic, Посмотрите пожалуйста если не сложно было поднятие кого-нибудь из конкурентов на место этого сайта или выше. И были ли ещё резкие падения сайтов находящихся в топе по тем же запросам что и эта страница.
Неа, ничего резкого и необычного.
basilic, извините, если немного не по теме, но тоже есть одна странность, и тоже связана со странными дублями.
Есть сайт без движка, построен на инклудах. На каждой странице с помощью php подгружаются header.txt, navigation.txt и footer.txt. Так вот эти самые txt файлы уже 3-4 апа в индексе и никак не хотят вылетать. Да и как они вообще, собственно, проиндексировались, хз.
Закройте текстовые файлы в роботсе.
Часто такое бывает. Выпадает страница, но в индексе ни дублей, ни страниц нет.
В том-то и дело, придумали в качестве отмазки некий дубль чтобы протянуть)) до нового апа, вчера страница вернулась без каких-либо дублей. В общем стандартный глюк, но так красиво саппортом преподнесенный!!! Ах!
прошу прощения за спам.
нужен профи для раскрутки нулевого сайта по России - тематика "обувь оптом" (недорогая обувь мелким оптом из Китая), целевая аудитория - не Мск, не Питер, а города мелкие и покрупнее. (все контакты в профиле)