tiswww

Рейтинг
22
Регистрация
16.11.2008

Сегодня заметил, что старый тур-сайт вообще нах из поиска выпал.

При этом, статистика в панели инструментов для веб-мастеров еще не среагировала, но ни по одному из обозначенных в ней переходов с позиций 1-10 вообще себя не нахожу.

Мудота с Гуглом полная.

Jarka:
здравствуйте
есть у нас молодой сайт (почти 4 месяца, пр1), каталог товаров с отзывами. проблема в том, что в нем очень много страниц (очень много - это около миллиона). гугл проиндексировал чуть больше 300к, НО проблема в том, что из них только ок 100 не в саплементале (когда как). страницы попадают в саплементал, я так понимаю, из-за того, что на эти товары нету отзывов (то есть это просто голый каталог), те, которые с отзывами (уникальный контент, перевод) - попадают в майн. как следствие, гугл видит нас только по каким-то уникальным запросам, в лушем случае иногда по новым отзывам.

еще одна проблема - se-fiendly ссылки. то есть они у нас совсем не френдли: http://доменa/cid/713/mid/7993/browse.html. решили переписать, чтобы был текст.

теперь главный вопрос: если поменять все ссылки и написать новый сайтмап, будет ли гугл индексировать и эти в саплементал, как зеркала тех, что уже проиндексированы? это раз.

два: удаление проиндексированных страниц и скармливание гуглу по 1000 стр в месяц может помочь? где-то читали, что удаленные из индекса страницы не индексируются 90 дней (или больше?) так ли это?

если перефразировать, нужно ли, переделав ссылки, удалятся из индекса (кроме главной). и поможет ли это выйти из саплементала

Лучше использовать <meta name="canonical".... чтобы заменить старые урлы на новые. Поищи в справке Гугла подробности.

w-builder:
Automaster, вы используете что-то для скармливания контента Гуглу? Пинги, сайтмапы, рсс-ленту, форматирование блоками и т.п.?

Возможно, вы ожидаете, что Гугл сам съест ваш сайт, а ему надо просто помочь... Что и используют грабберы :)

Про рсс ленту особенно понравилось.

Уважаемый, проблема в том, что если вашу рсс ленту начнут грабить агрегаторы с заоблачным числом внешних ссылок, то ваш сайт будет в .опе быстро и надолго.

То, что с Гуглом творится хрен знает что - факт и далеко ходить не надо вот вам пример улета магазина с ПР6 /ru/forum/375783

Pavelcreative:
Нормальная ссылка!!!
Давно пользуюсь.
Вот только немогу понять как они вычясляют страницы которые в соплях?
Как можно это в ручную сделать?

Там в самом низу страницы написано. Я для своих сайтов сделал страничку с сылками через разные поисковики Гугла. Правда я не заморачивался вычислением индекса, а просто смотрю сколько в саплиментале.

Короче, в саплиментале выдаются по запросу http://www.google.com/search?q=site%3Adomain+-inallurl%3Adomain&filter=0

А Гугла берете какой нужен.

2 Serega, проверьте свой сайт на предмет саплиментала

http://www.mapelli.info/tools/supplemental-index-ratio-calculator

Писать в WMT - бесполезно с точки зрения получения ответа, они ручные ответы не отсылают, только сообщения бота, когда их чел начинает обрабатывать Ваш запрос.

В последнее время у Гугла творятся непонятки со сканированием сайтмапов. На английском форуме вообще писали, что в их панели появляются какие-то левые сайтмапы. У меня тоже хрень полная.

Владимир-C:
Это кажется логичным.

А если будет винегрет из разных источников? Четыре строчки от Пушкина, четыре строчки от Лермонтова, куплет от Окуджавы?

Тогда уже в Supplemental не пойдет?

Отношение Гугла к неуникальному содержанию определяется трастом сайта и внешними ссылками на страницу с таким содержанием.

Частота обновления статистики в панели инструментов веб-мастеров теперь определяется кучей всякой мудоты, которую Гугл называет качеством сайта: количество и качество внешних ссылок, частота обновления страниц, траст.

Получается, что сайт-новичек вообще не может расчитывать на статистику.

С алгоритмами у Гугла тоже похоже жопа образовалась.

Сайты скачут и в СЕРПе и в самом индексе, ако мустанги на просторах прерий.

Интересно было прочесть ответ сотрудника Гугл на их форуме поддержки, где недельные скачки в 50% страниц в индексе характеризовались как "естественные флуктуации". Исходя из этого, можно предположить, что естественным поведением для Гугл является хаос.

MasterYan:
если к не уникальному контенту добавить уникальные коменты, то google такую страничку скушает?

Если объем комментов будет раз в 10 больше того неуникума, то может и в саплимент не отправить.

Потому, как анализирует страницу вцелом.

maviska:
ниша- туризм, в индексе тексты все есть, как проверяю: просто копирую строчку и вставляю в поиск, посещений нет....подозреваю фильтр но по одному запросу высокочастотному на 5 странице в поиске...по идее не так уж и далеко...в день есть гдето 5 посетителей по запросам чуть ли не по 5 -6 слов в запросе....
просто не понимаю где логика, почему на русском нет проблем с трафиком, пиши да пиши, а с английским такой напряг.

Давайте по-порядку.

1. ПР сайта 1. Как теоретически можно его поднять:

- продвигать статьями;

- на блоге установить кнопки сервисов закладок, но это может дать результат, только тогда, когда много страниц и много посетителей.

По-этому, продвигать сайт по ВЧ и в англоязычном сегменте очень трудно - конкуренция бешеная.

2. Попырайтесь продвигать по НЧ. Опыт подсказывает, что НЧ дает хорошие результаты при ПР = 0, т.к. тут большое значение набирает частота ключевых. Но, для этого, Вам нужно увеличивать объём страниц, чтобы увеличить объём аудитории идущей с НЧ.

Всё это нужно делать комплексно, такова селяви англозоны.

bober:
YuriDnepr, ИМХО должно сработать (хотя своего опыта нет такого). Кроме того. что Вы теряете, если все равно не выводится?

Вообще не вижу никакого смысла в таких фокусах.

Если известна причина наложения фильтра, то её нужно устранить и обождать недельки 2-3 (это если фильтр не долго стоял) или сразу подать сайт на пересмотр (если фильтры были долго).

А пренос по редиректу - пустая трата времени:

1. Сам перенос, если сайт большой идет месяцами

2. Если причина наложения фильтров осталась, то новый домен уйдет под фильтры даже раньше, чем будет полностью завершен перенос домена.

1 234
Всего: 40