obius

obius
Рейтинг
56
Регистрация
19.08.2015

Organization правильнее всего размечать на всех страницах. Еще есть такие мета теги:


<meta content="широта" property="place:location:latitude">
<meta content="долгота" property="place:location:longitude">
<meta content="улица" property="business:contact_data:street_address">
<meta content="область, город" property="business:contact_data:locality">
<meta content="почтовый индекс" property="business:contact_data:postal_code">
<meta content="страна" property="business:contact_data:country_name">
<meta content="мыло" property="business:contact_data:email">
<meta content="номера телефонов" property="business:contact_data:phone_number">
<meta content="адрес сайта" property="business:contact_data:website">

По поводу разметки хлебных крошек, ну синтаксических ошибок нет, но как рекомендует гугл и schema.org лучше использовать разметку нумерованного списка будь то RDF, RFD или Microdata:


<ol vocab="http://schema.org/" typeof="BreadcrumbList">
<li property="itemListElement" typeof="ListItem">
<a property="item" typeof="WebPage" href="https://example.com/dresses">
<span property="name">Dresses</span></a>
<meta property="position" content="1">
</li>
<li property="itemListElement" typeof="ListItem">
<a property="item" typeof="WebPage" href="https://example.com/dresses/real">
<span property="name">Real Dresses</span></a>
<meta property="position" content="2">
</li>
</ol>

По поводу разметки нескольких типов на страницы, вероятнее всего как таковых ограничений нет.

regnet:
obius, естественно нет)
Коды ответ 200ые

Ответы имелось ввиду не статус коды, а заголовки.

Что то типа того, только их поболее будет:


HTTP/1.1 400 Bad Request
Server: nginx
Date: Thu, 30 Jun 2016 19:23:53 GMT
Content-Type: text/html
Content-Length: 166
Connection: close

Еще например apache по средствам определенных директив может ответить запретом боту делать копии:


Header set x-robots-Tag: "noarchive"

через файл .htaccess если подключен модуль mod_headers.

Ну и наверняка и nginx подобные фокусы умеет вытворять :)

regnet:
Ребят, ну что?

чисто случайно, на тех страницах которых нет в кэше, подобного кода нет?


<meta name="robots" content="NOARCHIVE" />
или
<meta name="google" content="NOARCHIVE" />
или
<meta name="yandex" content="NOARCHIVE" />

А еще бы сравнить ответы сервера с двух страниц ( с копией в кэше и без )

Почитайте недавнюю дискуссию Актуален ли сейчас прогон? наверняка там есть часть ответов на ваши вопросы.

Один из многих факторов ранжирования позволяющий держаться данному сайту в Топ 3


Creation Date: 2002-12-17

3. склеить, и сделать редиректы 301 на новый ?

iddqdoom:
В структуре HTML-кода главной страницы есть несколько вкладок, реализованных посредством javascript. В них то и содержится весь оптимизированный контент.
https://jsfiddle.net/v5jqz8zf/
Будет ли контент корректно индексироваться ПС?

Ну если js вкладки работают по принципу переключение display: block | none, и текст всех вкладок прогружается сразу, то какая разница ПСу то? Ведь весть текст вкладок присутствует на странице.

Иван34:
Обычно использую alt, при чем заметил, что гугл шустрее индексирует картинки чем Яша.

Гугл многое делает шустрее Яшы, это норма :)

Никита Шестопа:
А что если при переименовании htaccess.txt в .htaccess и сайт ложится выдает етернал еррор обратитесь к администратору

Вероятнее всего в файле .htaccess синтаксические ошибки или отсутствия определенного модуля например mod_rewrite.

Комментируйте директивы по одной или группами, и проверяйте не заработал ли сайт.Такой вот вариант проверки в чем проблема :)

rrrichard:
У меня немного похожая ситуация, чтобы не плодить темы, хочу спросить тут.

В 2014 году сделал сайт на wordpress у которого получилась такая структура ссылок:
site.com/razdel1/podrazdel2/ssylk-o-tom.html
site.com/razdel2/podrazdel3/ssylk-o-etom.html

Примерно через полгода глюканул хостинг. (хостинг нахваливали тут на форуме, но речь не о том) Через неделю стало ясно, что хостинг умер, причем с концами и бесповоротно и со всеми резервными копиями, которые регулярно скачивал на свой компьютер только поначалу.

Из старой резервной копии восстановил сайт, но решил перенести на более шустрый движок. У нового движка структура ссылок получилась такая:
site.com/razdel1/ssylk-o-tom
site.com/razdel2/ssylk-o-etom

То есть не стало вложенных подразделов и окончания .html

После переделки сайта прошло уже почти 2 года, а в гугл вебмастере постоянно вылазят с 404 ошибкой старые ссылки типа site.com/razdel1/podrazdel2/ssylk-o-tom.html

Где гугл их берет по истечении двух лет?
Как от них избавиться?

Пробовал в гугл мастере отмечать эти ссылки как исправленные. Сначала список 404 очищается, но затем снова появляются эти же ссылки с 404 ошибкой

Прежде чем очищать, проверьте каждую ошибку на предмет присутствия вкладки "Ссылающиеся домены".

[ATTACH]153033[/ATTACH]

ну и сделать редирект 301 через .htaccess например так:


RewriteRule ^(.*)/(.*)/(.*).html$ /$1/$3 [R=301,L]
jpg 153033.jpg
Всего: 296