Страница просканировано, но не проиндексировано

callidus
На сайте с 18.07.2011
Offline
344
#31
credo22 #:

Новый сайт исключено! Новый сайт разрабатываться не будет. Так как уже есть Клиентская база, и размещены в нескольких торговых площадках

Подтверждено то, что если не заняться исключением таких страниц (вплоть до полного удаления по URL), движений по вашему сайту не будет :) Зачем Google расходовать краулинговый лимит на ваш сайт и в частности на туманное количество ГС-страниц?

Моментальный сбор семантического ядра и частотности за копейки https://clck.ru/3KYdWE.
D
На сайте с 29.10.2018
Offline
59
#32

Не думаю, что всё так плохо. Такие сайты вытягивать можно и нужно. Тут я вижу пока 2 пути.

  1.  Ждать пока всё наладится (если контента на страницах мало и он не уникальный, ждать можно до бесконечности).
  2.  Проявить лёгкое творчество и расширить/уникализировать содержание. Потому, что серых однообразных страниц у гугла и так в достатке. Ему надо, что-то новенькое, свежее, не стандартное. Например, сгенерировать немного (параграфа из 3-5 предложений, думаю, будет достаточно, главное не переборщить) уникального релевантного контента. Если не сильны в программировании, можно попросить программистов (отблагодарить в таком случае, безусловно нужно знатно и не скупиться, а то всё прахом пойдёт, а оно вам надо?). Но это так, на свой страх и риск, сами понимаете. Как минимум на короткой дистанции должно помочь. А если некачественно нагенерируете, то через пару месяцев может прилететь глухой бан. Тогда будет несколько сложнее. Но тоже поправимо.

В любом случае не стоит опускать руки и слушать всепропальщиков-теоретиков. У меня таких страниц в разы больше и ничего, живу. индексация

Многие из тех, которые без ошибок долгое время были не проиндексированы, просто отлёживались, ждали своего времени, многие доси ждут.

Так, что крест на них ставить ещё очень рано.

Желаю успехов!
 

S7
На сайте с 07.10.2017
Offline
56
#33
Denechka #:

Не думаю, что всё так плохо. Такие сайты вытягивать можно и нужно. Тут я вижу пока 2 пути.

  1.  Ждать пока всё наладится (если контента на страницах мало и он не уникальный, ждать можно до бесконечности).
  2.  Проявить лёгкое творчество и расширить/уникализировать содержание. Потому, что серых однообразных страниц у гугла и так в достатке. Ему надо, что-то новенькое, свежее, не стандартное. Например, сгенерировать немного (параграфа из 3-5 предложений, думаю, будет достаточно, главное не переборщить) уникального релевантного контента. Если не сильны в программировании, можно попросить программистов (отблагодарить в таком случае, безусловно нужно знатно и не скупиться, а то всё прахом пойдёт, а оно вам надо?). Но это так, на свой страх и риск, сами понимаете. Как минимум на короткой дистанции должно помочь. А если некачественно нагенерируете, то через пару месяцев может прилететь глухой бан. Тогда будет несколько сложнее. Но тоже поправимо.

В любом случае не стоит опускать руки и слушать всепропальщиков-теоретиков-умников. У меня таких страниц в разы больше и ничего, живу.

Многие из тех, которые без ошибок долгое время были не проиндексированы, просто отлёживались, ждали своего времени, многие доси ждут.

Так, что крест на них ставить ещё очень рано.

Желаю успехов!
 

У меня есть интернет-магазин, где каждая страничка, будь-то карточка или категория, расписана по-википедийски. И вот точь-в-точь такая же ерунда. 

Виктор Петров
На сайте с 05.01.2020
Offline
240
#34
Skanavy7 #:
У меня есть интернет-магазин, где каждая страничка, будь-то карточка или категория, расписана по-википедийски. И вот точь-в-точь такая же ерунда. 

Потому что не всё упирается в контент.
Гуглобот технически имеет ограничения на обход сайта. Вот он получил документ - вот он получил с этого документа список ссылок, которые поставил в очередь на дальнейший обход. И приоритет этим ссылкам он отдаст разный, в соответствии со своими собственными алгоритмами.

D
На сайте с 29.10.2018
Offline
59
#35
Виктор Петров #:

Потому что не всё упирается в контент.
Гуглобот технически имеет ограничения на обход сайта. Вот он получил документ - вот он получил с этого документа список ссылок, которые поставил в очередь на дальнейший обход. И приоритет этим ссылкам он отдаст разный, в соответствии со своими собственными алгоритмами.

По своему опыту, тут время отклика имеет значение. Долго ждать он не любит. Ну а когда дойдёт очередь - он может съесть много, если конечно его принудительно не глушат. Если содержание его заинтересует - плевать он хотел на ограничения.skan

год назад

skan

Антоний Казанский
На сайте с 12.04.2007
Offline
745
#36
Denechka #:
сгенерировать немного (параграфа из 3-5 предложений, думаю, будет достаточно, главное не переборщить) уникального релевантного контента

Сгенерировать из 3-5 предложений уникального контента почти на 10K товарных страниц? :) Вы верно шутите.

√ SEO продвижение ► https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Разговоры о SEO и не только: культурно, вежливо, доброжелательно ► https://t.me/seotusovochka
D
На сайте с 29.10.2018
Offline
59
#37
Антоний Казанский #:

Сгенерировать из 3-5 предложений уникального контента почти на 10K товарных страниц? :) Вы верно шутите.

нет. Вы меня не верно поняли.

Пардон за офф-топ: А почему, под сообщениями, какие-то левые ссылки автоматом появляются?

Виктор Петров
На сайте с 05.01.2020
Offline
240
#38
Denechka #:
По своему опыту, тут время отклика имеет значение. Долго ждать он не любит. Ну а когда дойдёт очередь - он может съесть много, если конечно его принудительно не глушат. Если содержание его заинтересует - плевать он хотел на ограничения.

Мюллер как-то обмолвился, что время ожидания отклика сайта для гуглобота - аж 2 минуты. Он терпеливый. Другое дело, что в реале он может этого и не делать. После пары зависонов пометит документ или хост как чересчур тормозной - и лимит на обходы уменьшит. Вот тебе 5 URL в очередь при заходе раз в неделю - и делай что хочешь.
То же самое и с редиректами. Формально - 20 переходов (насколько я помню). Фактически, судя по логам, может послать сайт уже и на пятом.
Так что да, многое упирается в своего рода "карму" сайта, его техническое состояние, интерес для ползателей, и ещё пачку сигналов.

D
На сайте с 29.10.2018
Offline
59
#39
Виктор Петров #:
Так что да, многое упирается в своего рода "карму" сайта

Это всё софистика. Слушайте больше дружище Мюллера и его друганов. Они говорят лишь то, что им дозволено сказать. Так сказать официальную позицию. И это правильно, я бы и сам так делал.

Включите свою логику - никто не любит долго ждать и напрягаться. Ни гуглобот, ни пользователи (для кого вся эта каша заваривается), ни ленивые разрабы.

А, может и правда у ТС банально проблемы с откликом? Он вроде ни словом об этом не обмолвился. Но это я так, в порядке общего бреда.

Вообще я не хочу хвалиться, но каждый запрос ходовой профилирую и анализ EXPLAIN делаю. Где надо ставлю индексы, где не надо убираю и т.д., стараюсь уменьшить длину ключа, не делать лишних запросов, провожу нормализацию/денормализацию данных (не всегда удачно, правда) т.к. каждая мсек у меня на счету.

Вообще на больших данных не ошибки неизбежны. Инженерная точность 10%. Если ошибки в этом пределе - стараюсь не замечать проблемы, откладываю на потом, иду дальше не зацикливаясь.

По моему, чем более оптимизировано информационное обеспечение, тем лучше всем - и процессор меньше напрягается, не выполняя левых команд, и гуглобот меньше ждёт своей очереди, и пользователь (что самое главное), да и мне быстрее отлаживать.

Антоний Казанский
На сайте с 12.04.2007
Offline
745
#40
Denechka #:
Вы меня не верно поняли.

Тогда пожалуйста разверните более доходчиво свою мысль и лучше на живых примерах, чтобы стало понятно, каким образом вы предлагаете программно уникализировать тысячи страниц с помощью 3-5 предложений.


Denechka #:
Пардон за офф-топ: А почему, под сообщениями, какие-то левые ссылки автоматом появляются?

Для внедрения заголовков доп. тем в контекст переписки.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий