Заметил такую особенность, видимо она и была нашей глобальной проблемой!
Основной сайт нашсайт.kz
Была еще торговая площадка которая полностью дублировал наш основной сайт, нашсайт.satu.kz, я проверил его он выглядит просто ужасным но проиндексированным около 70% Сайта!Связался с менеджером и попросил как можно скорее закрыть полностью индексацию
Всем спасибо за обратную связь!Подскажите пожалуйста классные платформы для детального разбора Сайта
P.S Скинул в личку результаты отчет Google Search Console
Не думаю, что всё так плохо. Такие сайты вытягивать можно и нужно. Тут я вижу пока 2 пути.
В любом случае не стоит опускать руки и слушать всепропальщиков-теоретиков. У меня таких страниц в разы больше и ничего, живу.
Многие из тех, которые без ошибок долгое время были не проиндексированы, просто отлёживались, ждали своего времени, многие доси ждут.
Так, что крест на них ставить ещё очень рано.
Желаю успехов!
Здравствуете Благодарю за отклик,
1. Я все еще жду в надежде что Гугл наконец начнет нормально Индексировать, Контент менеджер работает ежедневно наполнением карточки товара
Крест ставить мы не собираемся было вложено много средств и сил для развития, нужно решать эту проблему. И Как можно скорее, гугл мерчант в планах не было запускать, но из за сильного снижения трафика, запустили в надежде что гугл наконец примет ИМ и начнет индексировать сайт хотябы более 50-60% (Сейчас проиндексированы всего 17% всего интернет магазина)
У Вас я вижу более 50% страниц проиндексировано, что уже отличный результат
Весь трафик сейчас идет через Гугл Мерчант!
Гугл Мерчант рекламируется уже 2-ой месяц
Новый сайт исключено! Новый сайт разрабатываться не будет. Так как уже есть Клиентская база, и размещены в нескольких торговых площадках
Что такое слабые трастовые характеристики?
Для Гугла - это теперь тоже актуально и в принципе было актуально всегда, только не в такой значимой роли как в Яндексе.
Дописывать к имеющимся характеристикам какие-то другие характеристики - это довольно сложная задача, а вот повышать уникальность страниц через развитие коммьюнити в купе с развитием ПФ - оптимальное решение и лишним совершенно точно не будет. Я конечно не настаиваю на этом, но я бы пошёл именно этим путём.
Вообще развитие ПФ и коммьюнити естественный вектор в развитии сайта вне зависимости от предпочтений отдельных поисковых систем.
Что такое ПФ?Извиняюсь если задаю глупые вопросы, я сам Сисадмин, продвижением сайта занимался лично САМ!
До этого продвигал несколько сайтов, компании в которых я работал, у них все очень круто Трафик высокий, посещаемость высокая
А Вот свой личный ИМ немогу решить вопрос уже полгода)P.S. Могу вам в личку скинуть домен сайта и небольшой доступ к Гугл Консолю! Буду признателен
Прилагаю скрин а также robots.txt
User-agent: * Disallow: /my/ Disallow: /checkout/ Disallow: /signup/ Disallow: /soglasie/ Disallow: /cart/ Disallow: /login/ Disallow: /webasyst/ Disallow: /compare/ Disallow: /forgotpassword/ Disallow: /search/?query= Disallow: /search/?page=* Disallow: /search/&query=* Disallow: /*sort= Disallow: *&sort= Disallow: */?sort= # wa mailer mailer/* Disallow: /mailer/unsubscribe/ # wa mailer
Редирект со старых ссылок на новые был невозможен, так как наименование товаров отличались, цена отличалась, категория отличалась, картинка отличалась и к тому же написали новые метатеги
Домен старый остался но была поменяна полная архитектура в том числе, иреархия категории, фреймворк, прочие интеграции и синхронизации, поэтому мы не стали настраивать редирект, но даже были готовы настроить редирект 5000 ссылок на новые ссылки вручную
Типовая проблема при загрузке большого кол-ва неуникального слабовостребованного контента.
Коллега правильно сказал - это разновидность МПН/НКС, когда поисковик видит попытку загрузки на домен большого числа неуникальных товарных страниц, а траст домена не вытягивает полезность дублированного контента.
Базовая оптимизация TITLE-ы, заголовки, микроразметки и тексты уже не играют никакой роли, если тексты многократно дублированные на других сайтах. Поиску они просто не нужны, вот Гугл их и не индексирует.
Проблема типичная для крупных интернет магазинов, которые естественно не могут в одночасье уникализировать такое кол-во контента.
Ваша ошибка - одновременная загрузка 10K неуникальных товаров. Это надо было делать поэтапно, дозированно, прокачивая каждый товарный кластер и отдельные группы товаров, попутно уникализируя часть товаров. Этот шаг нужно было продумать, выстроить стратегию дозированного развития и поэтапно развивать сайт.
Мы не стали одновременно загружать 10к товаров, а загружали именно поэтапно, в процессе было много работ, специалистами 1С, Веб-Разработчиков, всякие ништяки в виде SEO плагинов!
Далее мы стали загружать товары от поставщиков, контент товарных позиции мы заполняли в ручную, ясное дело 1 Ноутбук, 1 Клавиатура, их продает куча интернет магазинов, Значение характеристик одинаковые
Почти все категории четко и быстро были проиндексированы, проблемы Гугел нехочет индексировать много товарных ссылок! Обнаруживает сканирует но не добавляет в индекс, в ручную пытался добавить, Магия Добавилась, и проиндексировали спустя 1-2 часа в Гугле, но мы же не будем в ручную индексировать несколько тысача ссылок
Вот именно, проблема очень серьезная, я то думал Гуглу нужно время, чтобы он успел отсканировать и проиндексировать, прошел Месяца, Второй, третий и уже полгода! А График так и плавает больше 20% URL, Гугл не хочет индексировать. 😐
Еще хотелось бы отметить, ежедневно меняется резальтаты поиска
site: названиесайта.kz Результатов 5000
site: названиесайта.kz Результатов 2000
site: названиесайта.kz Результатов 1200
site: названиесайта.kz Результатов 2200
Так и плавает результаты каждый день в интервале от 1000 до 5000 страниц