- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Стало известно, что самые крупные поисковые компании такие как Google, Yahoo и Microsoft решили совместно развивать неофициальный стандарт для управления поисковыми машинами.
Данные компании анонсировали, что они будут поддерживать средства (дополнительные тэги), благодаря которым небольшой дополнительный код в веб-странице сможет указывать адрес ее "канонической" версии - по существу, исходный основной адрес. В результате этого поисковые движки смогут избегать дублированных страниц.
Конечному пользователю такой подход позволит отсеивать ссылки на одинаковые тексты, размещенные на разных сайтах. Для владельцев сайтов это также будет положительным моментом, так как в поисковой выдаче по релевантным запросам отныне будут появляться только первоисточники информации, а не сайты плагиаторы.
Источник: http://newsware.su/it/news/2009/02/1...o-i-microsoft/
Кто что думает на этот счет? В таком случае могут возникнуть проблемы с биржами ссылок, потому как многие страницу не попадут в индекс, а следовательно не смогут продавать ссылки. Никто не слышал Yandex тоже в этом будет задействован?
По ходу уже начали бороться....
По ходу уже начали бороться....
Имеете ввиду последние глюки с дублями? Так там обратная ситуация - Яндекс выбрасывает из выдачи оригинальные сайты, оставляя дубликаты.
В таком случае могут возникнуть проблемы с биржами ссылок, потому как многие страницу не попадут в индекс, а следовательно не смогут продавать ссылки.
Тупым копипастом не занимайтесь и проблем не будет.