Нет, только сейчас заморочился на эту тему.
По анализу мегаиндекса на релевантность запрос "Наружная реклама": Релевантность страницы 70%
То что код занимает один мегабайт, это уже недоработка тех, кто его делал. Нужно учитывать некоторые факторы при создании HTML5 баннера, один мегабайт - это довольно много, заказывайте баннеры лучше у людей, которые имеют большой опыт в этом плане.
По поводу скрипта не очень понял вас, а решил проблемму установки хтмл баннера на сайт вот таким образом:
<iframe src="http://www.bandesign.ru/banner_html5.html" width="579" height="260" frameborder="0"></iframe>
Всё оказалось довольно легко и просто, ожидал что проблемм будет больше :).
Пологаю что вот так
Disallow: /*currency=UAH*
Disallow: /*currency=USD*
Можно ли задать шаблонно Disallow для всех ссылкок с ss, но потом несколько конкретных поставить в Allow?
Пошел по пути запрещения ссылок с динной "бородой", то есть для примера запрещаю к регистрации /portfolio.php?work=104&s=1&ss=1 но при проверке sitemap.xml он говорит что запрещен урл /portfolio.php?work=104&s=1
То есть он их видимо считает одинаковыми ссылками.
Скорее всего директива Disallow: /*&ss= тут будет не уместна, результат будет такой же или нет?
И это может угрохать половину сайта, так как есть несколько "общих" страниц в урл которых входит *&ss=
Подскажите можно ли прописать сначала Disallow: /*&ss= а после Allow: /с перечислением нужных для регистрации урлов?
То есть:
Disallow: /*&ss=
Allow: /portfolio.php?s=1&ss=6 - эти страницы как правило без слова work в урле, и их не больше 10.
Практикуется ли такое?
На данный момент закрыты вручную урлы с "бородой". Залил роботс, залил новый сайтмап.xml, гугл консоль пишет 37 предупреждений о том что ссылки типа /portfolio.php?work=104&s=1 (то есть без бороды с &ss= ) заблокированы в роботс.тхт
Далее иду в Инструмент проверки файла роботс где ввожу portfolio.php?work=104&s=1 на который он ругался, но пишет Доступен, а если проверить portfolio.php?work=104&s=1&ss=1 (с бородой ss), то он Заблокирован.
Далее захожу в Посмотреть как гуглбот ввожу ту же ссылку и нажимаю на Сканирование, пишет Готово, после чего жму для той же ссылки Получить и отобразить, пишет Частично выполнено.
После этих манипуляций я не очень понимаю противоречий самой гугл консоли, то она пишет 37 ошибок, но при проверке они проходят, а ссылка которую запретил в роботс, соответственно запрещена. Где логика?
Ребят, такая проблемма. Решил закрыть дубли страниц в роботсе, но столкнулся с непонятной для меня проблеммой.
Допустим закрываю я вот такую ссылку:
Disallow: /portfolio.php?work=225&s=1
Проверяю её через "посмотреть как гуглбот" он пишет что она закрыта, всё ОК.
Но! если проверить /portfolio.php?work=225&s=1&ss=3 то она тоже закрыта, и при проверке роботс ссылается на Disallow: /portfolio.php?work=225&s=1
Получается я одним запретом закрыл обе страницы дубля а не одну, как быть в такой ситуации, почему гуглбот не учитывает точное вхождение ссылки?
Вот роботс на васякий случай - bandesign.ru/robots.txt
Ранее так и было сделано, но позже мы убрали название сайта из тайтла, оно увеличивает количество символов. Думаете стоит всё же добавить? Не потеряем ли мы релевантность при выдаче, из-за того что символов в тайтле будет больше? И точно ли это принесет результат? Тут как бы "палка о двух канцах"...
:) ну как бы уровни-то разные, данные примеры не очень актуальны к нашему случаю. Там совершенно другой маркетинг и охват. Той же студии Артемия Лебедева нет смысла этого делать, т.к. есть свои источники прихода клиентов и я не думаю что у них основная ставка на поисковики. Мы же стараемся как можем, пытаемся через поисковые системы привлечь потенциальную клиентуру. Если бы они шли сами по себе, мы бы тоже не заморачивались на построении заголовков и прочего.
Смею предположить, что может берет он это из тайтла главной "Изготовление баннеров" а так же из внешних ссылок с подобными анкорами.
stand.php сейчас закрыт от индексации в роботс, на сайте на эту страницу нет ни одной ссылки.
Извиняюсь, видимо заработался и немного не то написал, вот как он сейчас подставляет "Фальшфасад - Создание баннеров для сайта", из чего я и сделал вывод про <h1> на главной.