- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Твоя проблема не в редиректах, не в текстах и не в ссылках, как пишут здесь некоторые. И уж точно не в МПК.
Пришли скрин наблюдений https://developers.google.com/speed/pagespeed/insights/
зачем? это ж порезка по нч трафику сразу
Так я к такому экстремизьму не призываю. Просто видал такие магазины - хорошо себя чувствуют, удивительно даже.
Твоя проблема не в редиректах, не в текстах и не в ссылках, как пишут здесь некоторые. И уж точно не в МПК.
Пришли скрин наблюдений https://developers.google.com/speed/pagespeed/insights/
ШТА? А там, во-первых, шаблончик-то не общий ли для всего сайта? А во вторых, он увидел, но ещё не проиндексировал, или просмотрел, но не стал вносить в индекс. Какие там Web Vitals, если речь об индексации?
он и не будет индексировать просто так кучу новых урлов, без редиректа с старых, без ссылок, без уника итд итп
Редирект со старых ссылок на новые был невозможен, так как наименование товаров отличались, цена отличалась, категория отличалась, картинка отличалась и к тому же написали новые метатеги
Домен старый остался но была поменяна полная архитектура в том числе, иреархия категории, фреймворк, прочие интеграции и синхронизации, поэтому мы не стали настраивать редирект, но даже были готовы настроить редирект 5000 ссылок на новые ссылки вручную
Типовая проблема при загрузке большого кол-ва неуникального слабовостребованного контента.
Коллега правильно сказал - это разновидность МПН/НКС, когда поисковик видит попытку загрузки на домен большого числа неуникальных товарных страниц, а траст домена не вытягивает полезность дублированного контента.
Базовая оптимизация TITLE-ы, заголовки, микроразметки и тексты уже не играют никакой роли, если тексты многократно дублированные на других сайтах. Поиску они просто не нужны, вот Гугл их и не индексирует.
Проблема типичная для крупных интернет магазинов, которые естественно не могут в одночасье уникализировать такое кол-во контента.
Ваша ошибка - одновременная загрузка 10K неуникальных товаров. Это надо было делать поэтапно, дозированно, прокачивая каждый товарный кластер и отдельные группы товаров, попутно уникализируя часть товаров. Этот шаг нужно было продумать, выстроить стратегию дозированного развития и поэтапно развивать сайт.
Мы не стали одновременно загружать 10к товаров, а загружали именно поэтапно, в процессе было много работ, специалистами 1С, Веб-Разработчиков, всякие ништяки в виде SEO плагинов!
Далее мы стали загружать товары от поставщиков, контент товарных позиции мы заполняли в ручную, ясное дело 1 Ноутбук, 1 Клавиатура, их продает куча интернет магазинов, Значение характеристик одинаковые
Как вариант - я бы больше внимания на категории обратил и их прокачку. В ряде случаев товарные карточки можно вообще от индекса прикрыть, на позициях не сказывается.
Тут вот, кстати, к ТС вопрос: ну, не проиндексировано. А как сказалось на общей динамике - позиции, траф?
Почти все категории четко и быстро были проиндексированы, проблемы Гугел нехочет индексировать много товарных ссылок! Обнаруживает сканирует но не добавляет в индекс, в ручную пытался добавить, Магия Добавилась, и проиндексировали спустя 1-2 часа в Гугле, но мы же не будем в ручную индексировать несколько тысача ссылок
Прилагаю скрин а также robots.txt
Обнаруживает сканирует но не добавляет в индекс, в ручную пытался добавить, Магия Добавилась, и проиндексировали спустя 1-2 часа в Гугле, но мы же не будем в ручную индексировать несколько тысача ссылок
Как вариант - я бы больше внимания на категории обратил и их прокачку
С категорий и надо начинать, поэтому не случайно я сказал про кластеры.
В ряде случаев товарные карточки можно вообще от индекса прикрыть, на позициях не сказывается.
В ряде, но не в этом. Через активностях на товарных страницах, через комментарии и ответы надо поднимать поведенческие и укреплять ПФ. Карточки товаров - это товарная низкочастотка скрыть от индекса их не нужно (в общем случае), а в форсированном - поэтапно открывать.
через комментарии и ответы надо поднимать поведенческие и укреплять ПФ
Мы не стали одновременно загружать 10к товаров, а загружали именно поэтапно, в процессе было много работ, специалистами 1С, Веб-Разработчиков, всякие ништяки в виде SEO плагинов!
Вот об этом структурной этапности и надо было писать - какие результаты были по промежуточным индексациям. Это надо было контролировать покластерно (по группам товаров), определяя % индексации по каждой группе товаров. 1С, Веб-разработчики и SEO нишятки - дело третье. Вопрос в том, насколько новый контент быстро индексируется и ранжируется по своим релеватных запросам.
Далее мы стали загружать товары от поставщиков, контент товарных позиции мы заполняли в ручную, ясное дело 1 Ноутбук, 1 Клавиатура, их продает куча интернет магазинов, Значение характеристик одинаковые
Вопрос не в том, как заполняли (хоть вручную, хоть программно), вопрос, что на выходе - насколько это уникально, и насколько востребованно. Внтури сайта нужно развивать своё коммьюнити (вопросы/ответы/комментарии) - это даст доп. сигналы и прибавочный контент для уникальности. Для сайта со слабыми трастовыми характеристиками это нужно делать всегда.
для гугла это выглядит как ломаный сайт - на который залили дор ))
Именно! Вообще аватюра влить на сайт тысячи страниц с неуником - это серьёзный риск.
Опытный понимающий SEO-шник забракует этот шаг и должен предложить своё этапное решение в согласовании с отделом IT.
у нас тема про Гугл, не про Яндекс
Для Гугла - это теперь тоже актуально и в принципе было актуально всегда, только не в такой значимой роли как в Яндексе.
Дописывать к имеющимся характеристикам какие-то другие характеристики - это довольно сложная задача, а вот повышать уникальность страниц через развитие коммьюнити в купе с развитием ПФ - оптимальное решение и лишним совершенно точно не будет. Я конечно не настаиваю на этом, но я бы пошёл именно этим путём.
Вообще развитие ПФ и коммьюнити естественный вектор в развитии сайта вне зависимости от предпочтений отдельных поисковых систем.