А запретить весь сайт в robots.txt?
Возможно, у сайта, где пытаетесь внедрить iframe, настроен CSP.
server { listen x.x.x.x; server_name x.x.x.x site.com www.site.com; root /var/www/site.com/html; access_log off; error_log /var/www/site.com/log/error.log; location / { if ( $uri !~ ^/robots\.txt ) { rewrite ^ https://site.com$request_uri? permanent; } }}server { listen x.x.x.x:443 ssl http2; server_name www.site.com; root /var/www/site.com/html; access_log off; error_log /var/www/site.com/log/error.log; location / { if ( $uri !~ ^/robots\.txt ) { rewrite ^ https://site.com$request_uri? permanent; } }}server { listen x.x.x.x:443 ssl http2; server_name site.com; root /var/www/site.com/html; access_log /var/www/site.com/log/access.log combined buffer=64k flush=2s; error_log /var/www/site.com/log/error.log;...
Первый сервер обрабатывает редиректы с HTTP версии (домен, домен с www, доступ по IP). Второй - перенаправление с HTTPS с www. Третий - основной, в нем все настройки. Обратите внимание, что везде задан один root, где хранится ваш основной robots.txt.
Одно дело, когда в коде в каждом теге присутствует портянка в атрибуте style, или, скажем, код таблицы, сгенерированный каким-нибудь MS Word (приходилось пару раз лицезреть эту печаль). Другое - когда кода много, но он лаконичный и нужный. У каждой страницы свой функционал и назначение, не нужно впадать в крайности. И вообще, имхо, это сугубо технический и эстетический вопрос, но никак не "сеооптимизаторский".
Предположу, что в скрипт, подгружающийся на всех страницах сайта.
Вы лучше начните с того, что расскажите, с какими проблемами столкнулись при реализации этой ленты.
Вы случаем не пытаетесь проксировать вебсокеты?
Уберите у slides жесткие значения width и height, а также у img внутри него. Для img можете в стилях задать width: 100%; height: auto; И, возможно, max-width для полной версии.
Скроллится вся страница или внутри блока?
Добавьте в XML-статистику информацию о текущем балансе.