египтолог

Рейтинг
27
Регистрация
21.06.2016

Редирект должен помочь, нужно время

Если не с коммерческой целью будете публиковать, то ничего страшного не произойдет

Нет возможности запретить копирование контента, да и не за чем. Все что выложено в интернете и попало в браузер уже общедоступно.

А ваще можно ссылочку на ресурс? хочется посмотреть на чудо-контент, за который вам будут платить денюжку

Ох уж мне эти принцы и нищие...

Вы все хотите обдурить гошу и яшу. не получится, даже не надейтесь.

Лучше задайтесь вопросом: почему они палят накрутку пф?

А все очень просто. Вы ничего не сделали с сайтом, а активность пользователей резко растет. Какой вывод? Однозначно, накрутка со всеми вытекающими.

Вот и нашелся на хитрую попу хрен с винтом.

Где выход? читайте здесь

---------- Добавлено 22.06.2016 в 17:27 ----------

Извините, думал, что первый пост не опубликовался и написал еще один.

Сильно не ругайте, я здесь новичок

на хитрую попу всегда найдется хрен с витом.

Не стоит недооценивать людей работающих на Гошу и Яшу. Любая накрутка банится. это будут боты или люди - все равно бан. А почему?

Включите моск. Вы не внесли никаких изменений на сайте, а активность пользователей резко возросла. Какой напрашивается вывод? Это накрутка, со всеми вытекающими.

Однако, на хрен с винтом всегда найдется попа-лабиринт. Как обойти эту щекотливую ситуацию - читай здесь

Сначала проверьте достоверность аудита. посмотрите html код страницы.

IceCOOL:
Не забывайте еще использовать OG:image , указывая какое изображение нужно использовать социалкам при формировании постов с вашими ссылками.

интересная мысль.

а какой плагин в вордпрессе добавляет теги og

vseonet1:
Вопрос в том, что нужно ли внедрять данный тег на все страницы сайта?
При этом дубли закрыты от индексации, например, через robots.txt

Данный тег обязательно необходимо внедрять на все страницы.

Предположим есть страница

site.ru/page.html

после добавления коммента создается новый документ

site.ru/page.html#comment-2

т.е дубль. и закрыть от индексации через robots.txt довольно проблематично.

Если у вас статические страницы, то их немного и вручную проставить тег не составит труда

Если страницы формируются динамически, то еще проще - 1 -2 строчки кода

Всего: 108