Вы все сделали правильно. Google рекомендует поместить видео наверх (оно должно быть видно на экране в момент загрузки страницы, без скролинга). По мере переиндексации страниц, ошибка уйдет.
https://developers.google.com/search/blog/2023/06/video-indexing-specific-issues?hl=ru
Ок. Есть страницы, где 10 видео. Все 10 видео поднять вверх? Это какие то механические действия без смысла. Полезность и качественность контента. А все остальное лишь постольку поскольку.
А нет отложенной загрузки видео? Просто стандартная вставка iframe без всяких lazyload скриптов?
Есть и то и то. Больше видео встроенных через плеер сайта с видео на хочтинге. Там полная отложенная загрузка preload="none" и частичная с передачей метаданных preload="metadata". Другие видео с youtube через iframe с lazyload.
Вот как раз это , мне кажется, и есть истинная причина всего замута.
Врядли.
У меня большая выборка сайтов - разные CMS, разные шаблоны, разные тематики. Но у всех сайтов были топовые позиции в Гугле, а теперь исчезли.
В один период (апдейт Гугла) на всех сайтах появилась проблема - страницы с видео выпали из индекса. Причем нет разницы, где именно и как размещено видео - через Youtube или через хостинг. В консоли на всех сайтах эти страницы помечены как «Страницы с видео», а внутри раздела «Видео не проиндексирована». Там же указаны две причины:
По всем страницам с видео есть валидная разметка schema. А также добавлена карта сайта с видео. Гугл ее принял. При переходе на карту сайта с видео во вкладку « Данные об индексировании страниц с видео » показывается ошибка - «Видео не проиндексировано» по причине «Видео находится за пределами области просмотра».
Эта проблема точно не связана с тегами <p> в которых вдруг оказалось видео. На сайтах видео вставлены через блоки разных визуальных редакторов Elementor, Beaver, стандартный редактор Gutenber и другие. Результат везде один - страницы выпали из индекса.
Тестил такой вариант. Удалял все видео с нескольких страниц на разных сайтах. Отправлял на переиндексацию. Итог - страницы (часть сразу, часть через сутки) вернулись в индекс. Затем снова исчезли.
Здравствуйте! Вбил кусок похожего кода, нашел несколько похожих примеров, вот например http://stmatthewspublishing.ph/product/progressive-approach-nursery/
(Сайт о котором я говорю, не могу показать, чтобы исключить разного рода интерес, мало ли может какая то уязвимость, но пример который привел выше, аналогичен моему сайту)
Вопрос по Woocommerce! На страницах где есть товары в исходном коде есть такие куски кода:
Можно ли этот технический код убрать? И если можно, то как?
Array( [_edit_lock] => Array ( [0] => 1490606414:25 ) [_edit_last] => Array ( [0] => 25 ) [_thumbnail_id] => Array ( [0] => 11639 ) [k_nedvijimost] => Array ( [0] => Квартиры ) [_k_nedvijimost] => Array ( [0] => field_5594cd8530f7e ) [type-sdelki] => Array ( [0] => 65 ) [_type-sdelki] => Array ( [0] => field_5594c998b045f ) [tip_oject] => Array ( [0] => 70 ) [_tip_oject] => Array
Скрин приложил - тут
ок. сейчас попробую.
И ещё, такой вопрос если сайт использует протокол https, то в роботс в правиле Sitemap мне указывать https?
в вебмастере Яндекса, если указать путь http, то вроде как он видит 0 ссылок, гугл по этому же сайтмапу видит всё нормально? вот думаю если укажу адрес в вебмастере к сайтмапу и в роботсе с https - это нормально?
Получается, через роботс всё сведётся к тому, что придётся просто в правиле Allow перечислить другие адреса, которые должны индексироваться. Мне показалось, что запилить на нужную страницу мета тег проще по времени
Здравствуйте! Вопрос в следующем, в силу особенностей CMS, есть такие адреса:
http://site/cat1/item1/
и
http://site/cat1/item1/review
Это дубли, исходя из особенностей вёрстки меню, было решено закрыть от индексации страницы типо
делаю я это так в файле robots.txt:
Disallow: /cat1/item1/
Вся проблема в том, что закрывается от индексации и страница - http://site/cat1/item1/review, которую наоборот было решено оставить и другие вложенные категории после адреса http://site/cat1/item1/.
Не пойму, как закрыть именно эту одну страницу. Подскажите, где копать. Вроде покопался в возможных командах файла роботс, но там ничего не нашёл---------- Добавлено 07.11.2014 в 16:29 ----------Здравствуйте! Вопрос в следующем, в силу особенностей CMS, есть такие адреса:
Не пойму, как закрыть именно эту одну страницу. Подскажите, где копать. Вроде покопался в возможных командах файла роботс, но там ничего не нашёл
Пока я нашёл выход такой, на каждую страницу, пихать мета тег <meta name="robots" content="noindex,nofollow">
Но вопрос, а командами использующимися в файле robots.txt можно такого добиться?