Работодателям, которым в деталях что-то некогда или не досуг вникать и проверять - каждый первый.
Это не вопрос доверия, это недостаток контроля. Такое в бизнесе сплошь и рядом.
Очевидно же - уточняйте у поддержки Яндекса.
Именно так это и происходит, когда руководство без понимания деталей заказывает услугу, а потоп пытается перевесить ответственность на другого сотрудника.
Судя по
он это делает на постоянной основе.
Не очень понятно, то ли он это делает своими силами, то ли выступает как посредник.
Если как непосредственный исполнитель - просите url-ы, если отказывает - сокращайте эту статью расходов.
Если как посредник - смело сокращайте эту бесполезную статью расходов.
Михаил, тут конечно, нужно было заранее узнавать в каком виде будет предоставляться отчёт и работать с теми, кто это делает нормально и должно, а не фрагментами скриншотов.
Настоящий крауд - это не спам по форумам, а комплексная PR работа по тематическим площадкам. Она формулируется не мусорными постами по мёртвым форумам и пабликам, а длительной работой, связанной с раскручиванием ваших рекламных предложений.
Если исполнитель скрывает рабочие URL-ы, значит это просто мусорные размещения, которые сам исполнитель не хочет показывать, вот и всё.
Конкретика в моих прошлых постах в теме про перелинковку о которой я писал выше. Десятки постов с разборами разных ситуаций и рабочих обстоятельств.
Если лень искать, конкретизирую - важные рабочие моменты по перелинковке в том числе обсуждались: здесь, здесь, здесь, здесь и во многих других темах, которые, если TC захочет - найдет.
Конкретика? Конкретика.
Далее.
Какой вам конкретики в данный момент не хватает? Детализировать про Википедию? Или каждый раз переписывать, что уже десятки раз на форуме было пережёвано?
Конкретика только тогда, когда есть конкретный URL и конкретная задача.
А покуда общий вопрос, то общие ответы и конкретные ориентиры. Это вполне достаточно, чтобы нацелить спрашивающего на целевую информацию и не создавать огромное кол-во тем со схожими ответами, коих и так больше кол-во.
Есть более свежие, не так давно на форуме эту тему обсуждали долго и подробно.
Ищите по поиску форума, тратить время на повторение уже не хочется.
Возникли вопросики:
Если отвечает в общем - да, но при разных обстоятельствах.
Поэтому направлять усилия в эту часть работы - да, стоит.
"Для людей" всегда работает лучше. Но! Если оно людьми будет востребовано, а для этого должны быть успешными многие прочие обстоятельства.
Алексей, важно понимать суть проблемы.
У вас очень долгий ответ от сервера по данному адресу,
почти 10 секунд - это очень много.
Для сравнения оцените скорость загрузки Главной страницы и XML карты сайты - вы увидите разницу на порядок.
Далее. 20K url-ов хоть и немаленький объём, но и некритический. В вашем случае вопрос не в том, как много URL-ов, а почему такая долгая загрузка.
Обращайтесь к программистам, пусть они смотрят как при генерации XML карты формируются запросы к БД, скорее всего эта программная часть не оптимизирована.
4Mb информации на 20K адресов - это немного, в порядке рабочих регламентов ПС. Карта должна отдавать быстрее, а вот процесс формирования XML карты в вашем случае, похоже, занимается большую часть времени.
Большую XML карту (хотя она у вас и не такая большая) нужно генерировать в отложенном режиме - лучше процесс генерации запускать раз в сутки и потом по рабочему адресу уже отдавать готовую XML версию (т.е. не генерировать её каждый раз при обращении).
Идём далее.
Делать текстовую версию вам точно не надо. У вас в карте используется <lastmod> и это важно.
Что вы можете сделать сейчас без программиста и настроек? Вы можете вручную формировать карту и отдавать её Гуглу по отдельному адресу.
Что делаем:
1) Выкачиваем текущую XML карту.
2) Сохраняем её у себя с именем my-sitemap.xml
3) Загружаем этот файл в корень сайта.
4) Пробуем загрузить адрес в браузере https://tempo-air.ru/my-sitemap.xml
Если данный URL грузится заметно быстрее - вы на верном пути.
4) В robots.txt вот эту запись
Sitemap: https://tempo-air.ru/sitemap.xml
меняем на
Sitemap: https://tempo-air.ru/my-sitemap.xml
5) В Консоли Гугли и Я.Вебмастере удаляете все старые карты и указываете новый адрес.
Далее наблюдаете за ситуацией. Если Гугл нормально воспринимает - задача решена.
Но! В данном случае при обновлении сайта вам нужно будет вручную генерировать обновлённый результат и перезаписывать XML карту по новому адресу tempo-air.ru/my-sitemap.xml
В общем, это довольно просто и быстро.
Сейчас для вас это самый оптимальный вариант без доп. затрат.
Захотите автоматизировать процесс (и не возиться каждый раз с обновлением карты) - приглашайте программиста, пусть он занимается этим вопросом.
Не только думаю, но и абсолютно уверен в следующем.
1) Сам по себе факт использования каких-либо сервисов успех не гарантирует и ранжирование не улучшает.
2) Для улучшения вы должны чётко себе представлять, что вы планируете улучшать и насколько возможно это улучшение в тексте.
3) Если текст написан автором без ориентира на СЯ и проработку ключевой плотности (что из стартового поста я понял), то здесь есть точка роста, где текст можно улучшить.
4) Будете ли вы при этом использовать сервисы - решать вам. Если вы справляетесь и без них, хорошо и чётко понимания, что и как улучшить, то можно справить и без сервисов.
5) С сервисными SE инструментами - да, быстрее и удобнее, что в целом в комплексной работе экономит время и улучшает итоговый результат, что определяет общую эффективность.
Теперь конкретно по параметрам.
Если
Если человек хорошо владеет словом и это не SEO-шник, который любит завышать ключевую плотность, то спама быть не должно.
Если вы читаете данный текст и вас в вас ничего не смущает, то как правило спама нет.
Вода в том или ином виде существует всегда.
Если вы её немного увеличите или немного уменьшите, то на позиции это не влияет.
Это фактор - да, влияет. Но, если плотность слов оптимально проработана, то заниматься процентным перфекционизмом в общем и в целом бессмысленно.
Это больше относится либо к стилистике изложения, либо к умению формировать письменную речь.
Некоторое сокращение пустых слов или их увеличение на ранжирование не сказываются.
Повторюсь, решающим является то, что и как вы планируете улучшать в тексте.
Солидарен полностью. И в целом обойти маркетплейс по отдельным видам товаров даже без накрутки задача не нерешаемая.
Нет. Проверять надо не в инкогнито (это теперь не более, чем альтернативный способ мониторинга), проверять надо по значениям Вебмастера.
Строго берете запрос и сравниваете по дням (если есть данные) - в PP (в вашем случае) и в Вебмастере.
Выберите из топа своих нишевых конкурентов и оцените у них видимость. Уверен, ясности прибавится и идеи появятся.
Наверняка есть группы товаров, где и конкуренция ниже и возможностей для топов больше.
Не все товары резонно продавать через маркетплейс.
Об этом здесь и здесь.