Hoakin2506

Рейтинг
70
Регистрация
07.11.2014
Вячеслав Скоблей #:

Вы все сделали правильно. Google рекомендует поместить видео наверх (оно должно быть видно на экране в момент загрузки страницы, без скролинга). По мере переиндексации страниц, ошибка уйдет.

https://developers.google.com/search/blog/2023/06/video-indexing-specific-issues?hl=ru

Ок. Есть страницы, где 10 видео. Все 10 видео поднять вверх? Это какие то механические действия без смысла. Полезность и качественность контента. А все остальное лишь постольку поскольку. 

Brat_Sergij #:

А нет отложенной загрузки видео? Просто стандартная вставка iframe без всяких lazyload скриптов?

Есть и то и то. Больше видео встроенных через плеер сайта с видео на хочтинге. Там полная отложенная загрузка preload="none" и  частичная с передачей метаданных preload="metadata".  Другие видео с youtube через iframe с lazyload.

Brat_Sergij #:

Вот как раз это , мне кажется, и есть истинная причина всего замута. 

Врядли.

У меня большая выборка сайтов - разные CMS, разные шаблоны, разные тематики. Но у всех сайтов были топовые позиции в Гугле, а теперь исчезли.

В один период (апдейт Гугла) на всех сайтах появилась проблема - страницы с видео выпали из индекса. Причем нет разницы, где именно и как размещено видео - через Youtube или через хостинг. В консоли на всех сайтах эти страницы помечены как «Страницы с видео», а внутри раздела «Видео не проиндексирована». Там же указаны две причины:

  • Видео находится за пределами области просмотра
  • Видео слишком большое

По всем страницам с видео есть валидная разметка schema. А также добавлена карта сайта с видео. Гугл ее принял. При переходе на карту сайта с видео во вкладку « Данные об индексировании страниц с видео » показывается ошибка - «Видео не проиндексировано» по причине «Видео находится за пределами области просмотра».

Эта проблема точно не связана с тегами <p> в которых вдруг оказалось видео. На сайтах видео вставлены через блоки разных визуальных редакторов Elementor, Beaver, стандартный редактор Gutenber и другие. Результат везде один - страницы выпали из индекса.

Тестил такой вариант. Удалял все видео с нескольких страниц на разных сайтах. Отправлял на переиндексацию. Итог - страницы (часть сразу, часть через сутки) вернулись в индекс. Затем снова исчезли.

Здравствуйте! Вбил кусок похожего кода, нашел несколько похожих примеров, вот например http://stmatthewspublishing.ph/product/progressive-approach-nursery/

(Сайт о котором я говорю, не могу показать, чтобы исключить разного рода интерес, мало ли может какая то уязвимость, но пример который привел выше, аналогичен моему сайту)

Вопрос по Woocommerce! На страницах где есть товары в исходном коде есть такие куски кода:

Можно ли этот технический код убрать? И если можно, то как?

Array
(
[_edit_lock] => Array
(
[0] => 1490606414:25
)

[_edit_last] => Array
(
[0] => 25
)

[_thumbnail_id] => Array
(
[0] => 11639
)

[k_nedvijimost] => Array
(
[0] => Квартиры
)

[_k_nedvijimost] => Array
(
[0] => field_5594cd8530f7e
)

[type-sdelki] => Array
(
[0] => 65
)

[_type-sdelki] => Array
(
[0] => field_5594c998b045f
)

[tip_oject] => Array
(
[0] => 70
)

[_tip_oject] => Array

Скрин приложил - тут

ок. сейчас попробую.

И ещё, такой вопрос если сайт использует протокол https, то в роботс в правиле Sitemap мне указывать https?

в вебмастере Яндекса, если указать путь http, то вроде как он видит 0 ссылок, гугл по этому же сайтмапу видит всё нормально? вот думаю если укажу адрес в вебмастере к сайтмапу и в роботсе с https - это нормально?

WebAlt:
Disallow: /cat1/item1/
Allow: /cat1/item1/review/

Получается, через роботс всё сведётся к тому, что придётся просто в правиле Allow перечислить другие адреса, которые должны индексироваться. Мне показалось, что запилить на нужную страницу мета тег проще по времени

Здравствуйте! Вопрос в следующем, в силу особенностей CMS, есть такие адреса:

http://site/cat1/item1/

и

http://site/cat1/item1/review

Это дубли, исходя из особенностей вёрстки меню, было решено закрыть от индексации страницы типо

http://site/cat1/item1/

делаю я это так в файле robots.txt:

Disallow: /cat1/item1/

Вся проблема в том, что закрывается от индексации и страница - http://site/cat1/item1/review, которую наоборот было решено оставить и другие вложенные категории после адреса http://site/cat1/item1/.

Не пойму, как закрыть именно эту одну страницу. Подскажите, где копать. Вроде покопался в возможных командах файла роботс, но там ничего не нашёл

---------- Добавлено 07.11.2014 в 16:29 ----------

Здравствуйте! Вопрос в следующем, в силу особенностей CMS, есть такие адреса:

http://site/cat1/item1/

и

http://site/cat1/item1/review

Это дубли, исходя из особенностей вёрстки меню, было решено закрыть от индексации страницы типо

http://site/cat1/item1/

делаю я это так в файле robots.txt:

Disallow: /cat1/item1/

Вся проблема в том, что закрывается от индексации и страница - http://site/cat1/item1/review, которую наоборот было решено оставить и другие вложенные категории после адреса http://site/cat1/item1/.

Не пойму, как закрыть именно эту одну страницу. Подскажите, где копать. Вроде покопался в возможных командах файла роботс, но там ничего не нашёл

Пока я нашёл выход такой, на каждую страницу, пихать мета тег <meta name="robots" content="noindex,nofollow">

Но вопрос, а командами использующимися в файле robots.txt можно такого добиться?

12
Всего: 19