- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет
Уважаемые коллеги, что вы думаете по поводу некого "эталонного" (по мнению Яндекса) web-документа, то бишь некой абстрактной модели? А для ресурса? Уверен, каждый так или иначе что то такое набросал для себя...
Какими признаками по вашему, сейчас(подчеркну, именно сейчас) должен обладать такой документ?
только не пишите про мета теги и консорциум W3C... не понимаете о чем речь - гордо подняв голову пройдите мимо...эпистолярных выкидышей не надо пожалуйста...
- web-документ должен быть на русском языке
- иметь SEF-урл
- содержать уникальный контент
- не ссылаться на кого попало
- лежать на нормальном, регулярно работающем хостинге
Для поисковика документ проходит обработку (что-то на подобии strip_tags в РНР) по этому попробуйте обработать им свой документ и посмотрите что получилось. Если вдруг получилось что вся информация осталась значит документ достаточно хорош...
Вот... :) есть первый конструктив... Уважаемый Зингельшухер, не могли бы Вы развить свою идею про подобный автомат? Точнее представим за вводную, что после сепарации остается набор структурированных данных... А теперь если повернуть эту модель на скажем два схожих документа (для ясности будем считать что ПС считает его нечетким дубликатом)? Какие дополнительные критерии будут "пользительны" сейчас после очередной смена алгоритма?
Caul Hoss, когда задаете вопрос, надо его задавать корректно. ТОгда и ответы будут вменяемыми... Вы бы почитали форум, понять кто тут задает вопрос действительно по делу, а не несет бред крайне сложно с первого просмотра, ибо выдают тут такое, что иногда вообще ничего не хочется...
Caul Hoss, когда задаете вопрос, надо его задавать корректно. ТОгда и ответы будут вменяемыми... Вы бы почитали форум, понять кто тут задает вопрос действительно по делу, а не несет бред крайне сложно с первого просмотра, ибо выдают тут такое, что иногда вообще ничего не хочется...
Кто бы спорил, кто бы спорил.... Но впрочем я вернусь к моему вопросу... Как вы уже начинаете догадываться вопрос более про критерии оценки или фильтрации :)...только в данном случае сделана попытка детализировать собственно, да и с учетом последнего рейсталинга ПС... вот я и пытаюсь найти "отправную" точку...
К тому же меня все более очевидна роль такого вот анализа - скоро коммерческий "горячий" серп с большим прессингом будет задавать принципиально новые условия игры... Вот поэтому приходится заниматься подобной... деятельностью... Итак, вернемся как говорится к баранам: Ваши критерии эталонной модели web-документа?
Caul Hoss , вы имели ввиду html, php, aspx и им подобные? То есть есть ли приорететы при создании на определеном "языке"?
не могли бы Вы развить свою идею про подобный автомат?
Автоматов несколько и идут они паралельно а не последовательно, одни отделяют текст от тэгов и индексируют, другие считают ссылки, третие читают альты (а может и не читают) итд
есть ли приорететы
Нету само собой
Онлайн-анализаторы и валидаторы часто говорят, что css и javascript нужно выносить в отдельный файл. Может и поисковики это учитывают... Ещё можно предположить, что имеет какую-то важность отношение кода к контенту.
Посмотрите в код морды Яндекса... и ещё много чего обязательного там нету.
<!-- про .css наверное имеет смысел его в отдельный файл, если средний посетитель смотрит много страниц (выдача например). А если страница грузится однократно, то при медленном доступе заметно, как браузер теряет время на отдельное обращение к серверу за отдельным .css ... провайдер тормозит -->
такчто css в отдельный файл на средне статистичечсоком сайте лучше намного ставить...
koka-man, что такое SEF-url?
тока не пинайте :)
При прочтении данного топика, возникло два вопроса:
1. Имеет-ли смысл выносить счётчики написаные на ява скриптах в отдельный файл, и если говорите что имеет, приведите пожалуйста примеры тегов как это лучше сделать.
2. Вы говорите что есть инструменты для проверки кроссбраузерности. Если не трудно, ткните носом в таковые.
Прошу ногами не пинать :)