Алексей, важно понимать суть проблемы.
У вас очень долгий ответ от сервера по данному адресу,
почти 10 секунд - это очень много.
Для сравнения оцените скорость загрузки Главной страницы и XML карты сайты - вы увидите разницу на порядок.
Далее. 20K url-ов хоть и немаленький объём, но и некритический. В вашем случае вопрос не в том, как много URL-ов, а почему такая долгая загрузка.
Обращайтесь к программистам, пусть они смотрят как при генерации XML карты формируются запросы к БД, скорее всего эта программная часть не оптимизирована.
4Mb информации на 20K адресов - это немного, в порядке рабочих регламентов ПС. Карта должна отдавать быстрее, а вот процесс формирования XML карты в вашем случае, похоже, занимается большую часть времени.
Большую XML карту (хотя она у вас и не такая большая) нужно генерировать в отложенном режиме - лучше процесс генерации запускать раз в сутки и потом по рабочему адресу уже отдавать готовую XML версию (т.е. не генерировать её каждый раз при обращении).
Идём далее.
Делать текстовую версию вам точно не надо. У вас в карте используется <lastmod> и это важно.
Что вы можете сделать сейчас без программиста и настроек? Вы можете вручную формировать карту и отдавать её Гуглу по отдельному адресу.
Что делаем:
1) Выкачиваем текущую XML карту.
2) Сохраняем её у себя с именем my-sitemap.xml
3) Загружаем этот файл в корень сайта.
4) Пробуем загрузить адрес в браузере https://tempo-air.ru/my-sitemap.xml
Если данный URL грузится заметно быстрее - вы на верном пути.
4) В robots.txt вот эту запись
Sitemap: https://tempo-air.ru/sitemap.xml
меняем на
Sitemap: https://tempo-air.ru/my-sitemap.xml
5) В Консоли Гугли и Я.Вебмастере удаляете все старые карты и указываете новый адрес.
Далее наблюдаете за ситуацией. Если Гугл нормально воспринимает - задача решена.
Но! В данном случае при обновлении сайта вам нужно будет вручную генерировать обновлённый результат и перезаписывать XML карту по новому адресу tempo-air.ru/my-sitemap.xml
В общем, это довольно просто и быстро.
Сейчас для вас это самый оптимальный вариант без доп. затрат.
Захотите автоматизировать процесс (и не возиться каждый раз с обновлением карты) - приглашайте программиста, пусть он занимается этим вопросом.
Не только думаю, но и абсолютно уверен в следующем.
1) Сам по себе факт использования каких-либо сервисов успех не гарантирует и ранжирование не улучшает.
2) Для улучшения вы должны чётко себе представлять, что вы планируете улучшать и насколько возможно это улучшение в тексте.
3) Если текст написан автором без ориентира на СЯ и проработку ключевой плотности (что из стартового поста я понял), то здесь есть точка роста, где текст можно улучшить.
4) Будете ли вы при этом использовать сервисы - решать вам. Если вы справляетесь и без них, хорошо и чётко понимания, что и как улучшить, то можно справить и без сервисов.
5) С сервисными SE инструментами - да, быстрее и удобнее, что в целом в комплексной работе экономит время и улучшает итоговый результат, что определяет общую эффективность.
Теперь конкретно по параметрам.
Если
Если человек хорошо владеет словом и это не SEO-шник, который любит завышать ключевую плотность, то спама быть не должно.
Если вы читаете данный текст и вас в вас ничего не смущает, то как правило спама нет.
Вода в том или ином виде существует всегда.
Если вы её немного увеличите или немного уменьшите, то на позиции это не влияет.
Это фактор - да, влияет. Но, если плотность слов оптимально проработана, то заниматься процентным перфекционизмом в общем и в целом бессмысленно.
Это больше относится либо к стилистике изложения, либо к умению формировать письменную речь.
Некоторое сокращение пустых слов или их увеличение на ранжирование не сказываются.
Повторюсь, решающим является то, что и как вы планируете улучшать в тексте.
Солидарен полностью. И в целом обойти маркетплейс по отдельным видам товаров даже без накрутки задача не нерешаемая.
Нет. Проверять надо не в инкогнито (это теперь не более, чем альтернативный способ мониторинга), проверять надо по значениям Вебмастера.
Строго берете запрос и сравниваете по дням (если есть данные) - в PP (в вашем случае) и в Вебмастере.
Выберите из топа своих нишевых конкурентов и оцените у них видимость. Уверен, ясности прибавится и идеи появятся.
Наверняка есть группы товаров, где и конкуренция ниже и возможностей для топов больше.
Не все товары резонно продавать через маркетплейс.
Об этом здесь и здесь.
Все, понял.. так бы и начал с миллонных ниш.
Торговля рыбой и кондеями - это сильно :) Хотя.. мороженая рыба.. кондеи.. :)))
Ну в целом привычный ассортимент с признаками. Откуда там 100K ядра? Не должно быть там такого количества рабочих запросов, если конечно ты принудительно не перемножаешь всё со всем в режиме жадной комбинаторики + умножая на все возможные склонения и спряжения :)
Раздуть перечень, чтобы потом отсеять 90% сгенерированных вариаций? Или откуда там набирается такое кол-во?
Отсев неявных дублей происходит?
Если начать отсеивать по частотке, я думаю в отдельных группах товаров сразу будет понятно, по каким признакам есть резон проводить проверки, а по каким нет.
Чтобы понять, какую статистику присылает исполнитель.
Если по стартовому описанию запросы поставили в топ, а адекватного числа кликов с серпа нет и заказов на порядок меньше, чем раньше, значит скорее всего топы только в отчётной документации.
В первую очередь надо разобраться именно с этим.
Это не забавно, это как раз нормальная ситуация.
Ну тут только один совет могу дать, накапливайте отказы и для себя взвешивайте. Поймете, что исчерпались - уходите.
Спросят о причинах, покажете записи отказов.
Да можно, но когда по строчкам колебания запроса наблюдаешь, видимость уже понятна и без всяких средних.
Средняя позиция не отражает периоды возможных колебаний, а там зачастую просадка может быть по всему кластеру.
Про абсолютные речи нет, оцените динамику и в какой зоне эта видимость находится.
Сейчас с накрутчиками картина такая, в XML выдаче запросы топовые и накрутчики активно их пихают в отчётные таблицы. В реальной выдаче эти запросы клики не получают вообще ввиду отсутствия их в зоне кликабельности.
Сделайте контрольный срез запросов и сравните.
p.s. Поставьте такую задачу вашему подрядчику - провести сверку и прислать данные.
Потом по этим следам будет удобнее самому смотреть.
Приведи примеры рекомендаций - будет понятно, по делу или нет.
Вы же можете рекомендации обсуждать? Можете. Вот вам и предполагаемая точка роста.
Смотрите. Задача над формирование лояльности целевой аудитории - это вообще базовая реклама маркетинга. Хоть на сайте, хоть в оффлайне.
Грубо говоря - вам важно, чтобы ваш клиент был доволен вашим предложением и сервисом? Я например не представляю, если какой-то руководитель скажет - нет, нам вообще пофигу :)
Что для этого делается на уровне бизнеса? Как эти механики реализуются на сайте..?
Если только начать в это погружаться - сразу масса задач всплывает. Вот это всё и должно решаться, что в оперативном порядке, что в стратегическом.
Однако если начальство всему этому активно препятствует - здесь беда. Здесь либо изображайте и терпите, что вредно для ментально и физического здоровья, либо уходите, потому что уверенно вам скажу - адекватное руководство, которое хочет развиваться и вкладываться в сайте есть!
Это установка изначально неверная. Если пользователь не взаимодействует с сайтом, то Яндекс то в среднем не поймет, полезен ему сайт или нет.
У вас же не такси.
Изначально не сработает. Вы бы спросили - мы вам подсказали :)
Тут только с конкретикой анализа пользовательской активности. По характеру движения мышки уже как правило понятно, человек или бот.
А дальше то, что чаще всего не разбирают и в это не погружаются.