tiswww

Рейтинг
22
Регистрация
16.11.2008
MasterYan:
В общем есть большой, хороший сайт, делали для людей.
С огромной базой НE уникального контента (парсиалось с многих источников).

Всего страниц 400.000, сайту уже 2 месяца.

В Google проиндексировано 280 стр.
В Яндексе 2000 стр.

Сделали и добавили карты сайта для Яши и Гугла (1,5 мес тому).

Два десятка ссылок тематических купили, 10-к сквозняков, пару статей..
В итоге PR: 2, сейчас 450 человек (300 от Яши)

Вопрос: как заставить поисковик проиндексировать хотя бы 20% наших страниц??
Что еще посоветуете сделать?

И оно Вам надо? Ну, что бы Гугл его индексил. Проиндексит и наложит фильтры, за неуникальность контента. Вам будет от этого счастье?

Владимир-C:
Сайт использует механизм сессий, поэтому все адреса страниц при их просмотре с отключенными куки имеют вид http://site.ru/dex.htm?SID=66d02c617e90cc0248f. То есть, для поисковика каждое обращение к странице открывает ее в виде дубля, что не есть хорошо.

Для исключения таких дублей я прописываю на каждой странице директиву rel="canonical":
<link rel="canonical" href="http://site.ru/dex.htm" />

А вот что делать с главной страницей, мне непонятно!

Как внутренние, так и внешние ссылки на главную страницу имеют два варианта:
1. <a href="http://site.ru/">Мой сайт</a>
2. <a href="http://site.ru/index.htm">Мой сайт</a>

Как же правильно составить rel="canonical" для главной страницы, что бы ПР оптимизировался оптимальным образом и чтобы дублей на возникало?

Так:
<link rel="canonical" href="http://site.ru" />

Или так:
<link rel="canonical" href="http://site.ru/index.htm " />

Вот так: <link rel="canonical" href="http://site.ru" /> наиболее подходящий вариант, ибо

http://site.ru и http://site.ru/ - это разные урлы.

Вероятность размещения ссылок без конечного слэша на вашу главную гораздо больше чем со слэшем и реакция поисковиков при их обнаружении будет более быстрой.

Damon:
Да и сам index.htm лучше вообще убрать из индексирования. Не нужен он.

Он даже вреден, при определенных обстоятелствах🚬

mik-a-el:
Так:

А с http://site.ru/index.htm 301 редирект на http://site.ru

Ну что за бред?

Кому он нужен этот редирект?

Просто пишете на каждой странице её канонический УРЛ.

Он для того и нужен, чтобы при заходе по другому урлу бот мог определелить едиственный правильный (канонический) адрес страницы и больше ему нифига не надо.

Forexpros, Вы для начала в Гугл сайтмапс зарегтесь, сайтмап сделайте и т.д.

Там статистика даёт ответы на многие вопросы. По вопросам попадания под фильтры, в том числе.

Да и на аппеляцию чтоб подать нужно быть уже зарегеной.

tiswww добавил 19.03.2009 в 19:24

Forexpros:
Ок.это покупка ссылок? Как это процедура проходит? Где покупать?

Нигде. Продажные ссылки кораются фильтрами Гугл. Читайте требования Гугла по обеспечению качества сайтов.

В последнее время гугл зверствует именно на этой почве. если не ошибаюсь, у вас есть RSS фиды?

Это единственный Ваш канал получения качественных ссылок. Для этого Вам необходимо:

1. Чтобы фиды постоянно обновлялись.

2. Тайтлы итемов фида должны соответствовать контенту страниц, на которые идут ссылки.

3. Регте фиды в агрегаторах фидов.

4. гугл и в этом случае может наложить фильтры, но Вы сможете их оспорить объяснив ситуацию наличием именно фидов на вашем сайте и их свободной доступностью.

PS: На страницах самого сайта, в обязательном порядке, должны быть качественные ссылки на сами фиды. Гугл не только индексит ссылки из фидов, но и сам их ищет☝

Если на вашем сайте ведется лента новостей, то Вы можете стать поставщиком новостей Гугл.

Для этого существуют специальные сайтмапы новостей, но предварительно ваш сайт должен быть одобрен как поставщик самим гуглом. Все это расписано в справке гугла для вебмастеров.

Да фигня какаято нездоровая с Гуглом творится.

Сайты падают, ако груши.

Почитайте соседние ветки.

Колбасит индекс уже второй месяц.

У меня обходит сайт, но как то странно.

На сайтмап - практически не реагирует (на новые) - толчется в основном по старым.

В индекс новые практически не пихает.

А как вы себе мыслите продвигать страницу по большому количеству запросов?

Для Гугла наиболее весомыми являются тайтл, кейворды и дескрипшин. Все они ограничены.

От того, что вы будете поднимать плотность ключей в тексте, не имея их в тайтле - пользы будет не очень много, разве что вы ПР до 7-8 собираетесь поднять.

У меня с одним сайтом неделю назад началось.

Из выдачи практически исчез, ну до 5-й страницы.

Googlebot обходит и в большом количестве, но:

1. Не идет на новые страницы их сайтмапа.

2. Нет изменений в индексе, как будто заморожен перечень проиндексированных страниц.

Нет ни добавления, ни изъятия.

ReWeb:
Если IP в бане, то сайты на нём не проиндексируются. Если IP под фильтром, то сайты будут индексироваться, но на хорошии позиции попадать не будут. Если сайт на этом IP, в любой промежуток времени, показывает какие-то взлёты, то IP здесь не при чём.

А как проверить IP под фильтром или нет?

Вчера резко упал траф на сайте (с 2к до 200-300).

Сайт англоязычный но на украинском поддомене.

Сайт старый.

Googlebot/2.1 - ходит по сайту, как и раньше.

В индексе - некоторое падение числа страниц, но это нормально.

Проблемы с выдачей по низкочастотникам.

1 234
Всего: 40