Да это понятно, но ест ли смысл заморачиваться с сайтом ради путь даже месячного трафика (при том неизвестно еще какого)?
Я при работе с джумлой исключаю все дубли в роботс.тхт
До сих пор мне такой текст в файле помогал не допустить дублей в индекс:
User-agent: *Disallow: /administrator/Disallow: /cache/Disallow: /cli/Disallow: /components/Disallow: /includes/Disallow: /installation/Disallow: /language/Disallow: /libraries/Disallow: /logs/Disallow: /media/Disallow: /modules/Disallow: /plugins/Disallow: /templates/Disallow: /tmp/Disallow: /*com_mailto Disallow: /*pop= Disallow: /*format= Disallow: /*print= Disallow: /*task=vote Disallow: /*=watermark Disallow: /*=download Disallow: /*user/ Disallow: /404 Disallow: /index.php? Disallow: /*? Disallow: /*% Disallow: /*& Disallow: /index2.php Disallow: /index.php Disallow: /*tag Host: ..........Sitemap: ..........
На сколько я знаю, и на сколько мне говорили люди, которые чего-то добились в этом деле, вхождения должны быть именно точными, как в самом тексте, так и в тайтле.
Я конечно извиняюсь за глупый вопрос, но что даст даже пусть временный трафик на сайт? заработать пару рублей на рекламе?
Обычно плагины, которые ставят для реализации кнопок соцсетей - cоздают эти теги OG
Что бы долго не искать - можете почитать как решить проблему с рефспамом тут.
Сразу после добавления статьи на сайт, заливайте ее в яндекс вебмастер. Так Яндекс будет знать, что эта статья появилась на вашем сайте. На следующий день добавляйте уже и в соцсети.
Какая cms сайта? И дубли какого вида появляются? если правильные адреса ЧПУ, а дубли создаются со знакоми вопроса и подобными символами, то закрывайте их в роботс.тхт
В браузере открывайте "исследовать элемент" и правьте css. так вы наглядно будете видеть что у вас получается. Итоговые цифры уже закинете на сервак в файл.
Присоединясю в пользу ХТМЛ-редактора. Мне вот этот очень нравиться.
Все просто и понятно.