- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
 
- Работа и услуги для вебмастера- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
 
- Не про работу
 
        В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
          Это на 45% больше, чем в 2022 году
        
        
              Оксана Мамчуева
          
            
          
        
       
        Переиграть и победить: как анализировать конкурентов для продвижения сайта
          С помощью Ahrefs
        
        
            Александр Шестаков
          
            
          
        
      Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
 
                 
            
Новости:
Одной из главных проблем Интернета является плагиат — на сайтах, создающих оригинальный контент, паразитируют многие веб-ресурсы, публикующие исключительно копии чужих материалов. Для того, чтобы определять сайты-плагиаторы и помечать источники оригинальных материалов, лидеры интернет-рынка компании Google, Microsoft планируют создать новый стандарт управления поисковиками.
Last week Google, Yahoo, and Microsoft announced support for a new link element to clean up duplicate urls on sites. The syntax is pretty simple: An ugly url such as http://www.example.com/page.html?sid=asdf314159265 can specify in the HEAD part of the document the following:
Подробней про каноническую ссылку
уже была тема
уже была тема
/ru/forum/317268
Новости:
Одной из главных проблем Интернета является плагиат — на сайтах, создающих оригинальный контент, паразитируют многие веб-ресурсы, публикующие исключительно копии чужих материалов. Для того, чтобы определять сайты-плагиаторы и помечать источники оригинальных материалов, лидеры интернет-рынка компании Google, Microsoft планируют создать новый стандарт управления поисковиками.
Как я понял этот тег для удаления дубликатов страниц на своем сайте, а не на других веб-ресурсах.
Как я понял этот тег для удаления дубликатов страниц на своем сайте, а не на других веб-ресурсах.
"помечать источники оригинальных материалов" - публикуешь уникальный контент, "помечаешь" его мета тэгом новым, ресабмитишь sitemap - имхо это можеть быть полезно для новых сайтов
"помечать источники оригинальных материалов" - публикуешь уникальный контент, "помечаешь" его мета тэгом новым, ресабмитишь sitemap - вот ты и первый :)
Где это сказано, ссылку можно? Или это ваши домыслы?
Выводы по поводу борьбы с плагиатом неправильные.
Тег нужен для другого. К примеру я на одном из сайтов уже воспользовался новым тегом - страницы "для печати" прикрыл. Дело в том что они маленькие, необремененные излишествами всякими - их гугль уважает больше обычных. Они и в индекс раньше обычных попадают. Не нравилось мне это... ждать приходилось пока поисковик исправится... Что теперь будет - посмотрим.
Как я понял этот тег для удаления дубликатов страниц на своем сайте, а не на других веб-ресурсах.
Именно. Плагиат тут не причем.