Я в непонятках: на сайте страниц 3000, загружено роботом 4, в индексе 1

12
nesterdron
На сайте с 09.10.2009
Offline
528
#11

Причина в том,что этот копипаст,даже робот переварить не может ;)

Есть страницы, которые есть еще на одном сайте, т.е. не уникальность, но близкая к ней.

А это как понять?)

➨Куплю порн0 трафик - писать в ЛС<<< ➨Хостинг, VPS - Саппорт всегда Онлайн. Скидки и Тестовый период! (https://is.gd/5mCoBt) ➨о_0
S
На сайте с 03.03.2010
Offline
31
#12
dr1nk:
Может, домен до покупки был под фильтром? Хотя, я так понимаю, что Яндекс отрицает перенос фильтра на домен после регистрации его новым пользователем, или я не прав?
Наличие дублей, повторяющихся тегов meta... Есть что-либо?

Домен регил сам с нуля. Владельцев ранее не было. Дублей нет. Ничего подозрительно не вижу.

---------- Добавлено 04.02.2012 в 20:38 ----------

nesterdron:
Причина в том,что этот копипаст,даже робот переварить не может ;)
А это как понять?)

Этим я хотел сказать, что есть несколько страниц с дружественного сайта (например, блоги продублированы). То есть в размерах рунета - это фактически уникальный контент.

---------- Добавлено 04.02.2012 в 20:41 ----------

Да собственно вот этот сайт www.ludiipoteki.ru

Карманный флудер
На сайте с 17.11.2006
Offline
95
#13

контент копипаст + слив на русипотеку = а почему он должен быть в индексе?

Тексты заказываю тут (http://text.ru/bestbuy)
S
На сайте с 03.03.2010
Offline
31
#14
Карманный флудер:
контент копипаст + слив на русипотеку = а почему он должен быть в индексе?

1. Что касается новостного контента, в интернете он практически весь копипаст и индексируется на всех сайтах очень даже хорошо. Смотрите РИА Новсти, banki.ru и другие.

2. Что значит слив? Ссылки на дружественные сайты еще никогда не являлись причиной бана и не являлись признаками спама.

Господа, еще раз. Проблема не в количестве страниц в индексе, а в количестве страниц в "загружено роботом". С исключенными роботом страницами можно разобраться. А здесь не ясна сама причина игнора сайта роботом.

morzan123
На сайте с 26.11.2010
Offline
182
#15
Sozidatel:
В этой теме [ссылка] участник с ником morzan123 пишет: "Я когда-то разбирался с такой темой. Дело в том, что даже у сайтов под АГС робот все равно индексирует страницы - они не попадают в выдачу, но попадают в "загруженные роботом". Робот проверяет, не пора ли снимать фильтры и так далее, анализируя в том числе и контент."

Так что, если действительно чел прав, то у меня не АГС, т.к. страницы не попадают в раздел "загруженные роботом". Так в чем же причина?

Такое наблюдается, если сайт был когда-то нормально проиндексирован, а потом попал под фильтры. Ваш же не был проиндексирован изначально - в этом случае количество страниц практически не меняется ни в "загруженных", ни в индексе.

---------- Post added 04-02-2012 at 23:34 ----------

malquem:
Скорее всего это из-за того что яша после нового года вообще не берет в индекс. У меня 2 проекта и гугл схавал 130 и 72 страниц а яшка 0 и 0!

Вы не правы, 3 новых сайта после НГ в индексе. Что-то не так делаете.

---------- Post added 04-02-2012 at 23:38 ----------

Sozidatel:
1. Что касается новостного контента, в интернете он практически весь копипаст и индексируется на всех сайтах очень даже хорошо. Смотрите РИА Новсти, banki.ru и другие.
2. Что значит слив? Ссылки на дружественные сайты еще никогда не являлись причиной бана и не являлись признаками спама.

Господа, еще раз. Проблема не в количестве страниц в индексе, а в количестве страниц в "загружено роботом". С исключенными роботом страницами можно разобраться. А здесь не ясна сама причина игнора сайта роботом.

1. Нулевой проект и РИА Новости это земля и небо. Чем старше и качественнее проект, тем больше он может выдержать.

2. Из чего следует, что ваши ссылки не похожи на "дружественные".

3. Нет никакой разницы что написано в "загружено роботом" в вашем случае. Бот яши ходит, а индекса нет - АГС не бывает "немного", как и беременность - либо есть, либо нет. У вас, имхо, есть.

Оказываю консультации.
C3
На сайте с 07.02.2012
Offline
76
#16
Sozidatel:
Ситуация такая. Сайт молодой всего несколько месяцев. Новостная тематика + блоги, статьи. Страниц около 3 тысяч. Гугл проиндексировал 2600 страниц. Боты яндекса постоянно находятся на сайте, при этом параметр "загружено роботом" всего 4. Яндекс нашел всего 4 страницы из 3000 и отдал в индекс только главную.
Платон отвечает, что на сайт наложены ограничения по количеству страниц в индексе. Я говорю, не в этом проблема, а в том, что их робот не видит сайт. Платон отвечает, что все ok, так и должно быть и что это не помешает страницам сайта попасть в индекс. Бред какой-то. Я в замешательстве.

Ребята с опытом - подскажите, что за хрень такая. Сайт могу скинуть в личку. Основной вопрос 4 страницы из нескольких тысяч. Почему?!

Да похоже есть на Яндексе такая проблема! У меня аналогичная ситуация.

Сайт http://www.infonewes.ru, добавил в Яндекс где-то числа 28 января. Написано загружено роботом - 3 страницы.

Спустя уже 2 Апа прошло, но загружено по прежнему 3 страницы.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий