- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В связи с панацеей верстки сайтов в соответствии с web-стандартами в англоязычной части инета появился резонный вопрос.
Кто нибудь создавал сайт(ы) в соответствии с web-стандартами с целью оптимизации кода для лучшей индексации. Имеет ли какие-либо приемущества страница с валидным кодом при ранжировании результатов поиска? Действительно ли поисковики "лучше переваривают" XHTML+CSS?
ИМХО нет. Кстати, морда Google не соответствует стандартам. :)
А есть ли вообще сайты (ну кроме w3) соответствующие стандарту ;)?
Тестирование мобильных приложений и сайтов (/ru/forum/1032925) https://www.facebook.com/ostmaster (https://www.facebook.com/ostmaster)
Есть. Поищи по запросу bobby, у них даже какое-то сообщество есть, награды друг другу дают за то что круто соответствуют. :)
;)
Это они считаю что круто.
А w3 немного сомневается
PS На всякий случай уточню, что по ссылкам я не ходила, не на столько мне любопытно, просто урлы с выдачи скормила валидатору.
;)
Это они считаю что круто.
А w3 немного сомневается
PS На всякий случай уточню, что по ссылкам я не ходила, не на столько мне любопытно, просто урлы с выдачи скормила валидатору.
Я тут встретил правильную отмазку по этому поводу:
Т.е. на корректность кода поисковики внимания не обращают — побоку. Может быть вообще не стоит столько внимания уделять "правильности" верстки и собака зарыта в другом месте...
У поисковиков свои парсеры, и, кстати, их мнение по ряду вопросов не совпадает, например, с мнением популярных в народе броузеров. Чем можно пользоваться. ;)
Т.е. все таки оценивается корректность кода :p
А причем здесь популярные браузеры - ведь парсер SE наверняка руководствуется спецификациями w3c? И как этим можно пользоваться?
Ну можно попробовать проверить.
Чистых данных конечно не получишь (слишком много иных факторов), но вдруг какую зависимость найдешь ;).
Выдача открыта.
А что думает по поводу конкретных сайтов w3 можно проверить http://validator.w3.org/
Если найдешь "правильные" сайты в рунете, плиз, ссылочку в студию ;).