Vladimir

Vladimir
Рейтинг
614
Регистрация
07.06.2004
Интересы
Photo
plab #:

Теоретически может. Однако с 99% вероятностью улетит копипастер. Причем не вниз, а под фильтр.

С той же регулярностью на серче есть темы, где чел сцыт кипятком, что на него подадут в суд за стыренную одну картинку. И темы где гугл роняет в выдаче сайты, потому что есть жалобы. 

В темах на серче, с точностью наоборот.
И если я у вас скопипащу весь сайт, он тоже весь улетит. Так как у вас каша в голове, уж извиняюсь

Почему каша? Да, потому что контент и картинки это разные вещи.
Вам о "уникальности контента для ПС", а вас опять куда то в сторону ( картинок)

Для суда
- для контента, нотариально заверенные доки
- для картинок, достаточно исходника


И да, написал первый пост не для того чтобы вам на прописные истины отвечать и спорить с вами
А, чтобы вы задумались об "уникальности контента для ПС". 

frank_82 #:
я попробовал - наджипичатил 100 страниц на разные не сложные тематики. Трафик слезы )))1-2 человека в 2-3 дня с большим показателем отказов. так что смогу заверить, все это шляпа полная. Не тратьте время.

Напечатал три текста на сложную тематику, не правил, ибо и так читабельно, на вопрос отвечено сполна. Все три в топ1

И что дальше? Ничего, это лишь вопрос в том, где вы берете контент, и как его используете.
Вся тема высосана из пальца - сейчас придет ИИ и все рухнет

plab #:

- Я знаю сайт

- Это не обязательно. Достаточно доказать, что материал мой.... Если дело дойдет до суда, у вас просто знаний не будет по соответствующей теме, а анализ стилистики текста выдаст чей он.

- Вы знаете один сайт, и приводите это в качестве статистики?
Я вам привожу в качестве примера серч, где годами регулярно появляются темы - скопиравали, дорвей в топе, что делать. И без разницы дохлый это сайт, или постоянно наполняемый.
И вам пишу, что при полном копипасте ваш сайт может улететь вниз, а вы мне про вычисление какого то рерайта. Нет никакого вычисления, это ваши домыслы.

- Для суда, нет никаких доказательств, кроме нотариально заверенных материалов сайта. Не надо ничего выдумавать

PS И вообще, когда вы читать научитесь? Суд при чем, в вопросе про   "уникательность контента для ПС"?

plab #:

Улетите в бан гугла. Или получите судебное разбирательство.

Чтобы быстрее скопировать материал, чем гугл его проиндексирует, фактически вы должны постоянно мониторить дисковое пространство хостинга сайта. 

- Вы первый раз на серче? Или темы не читаете. Ваш сайт в бан улетает, а у дорвейшика в топе
- судебное разбирательство? с чего, у вас сайт полностью заверен у нотариуса? Нет.

Ну и я о том, же что защищать свой контент не умеете.
Зачем быстрее индексировать контент? Да, хоть год назад он у вас проиндексирован, при копи пастэ дорвейщиком, вы будете в бане за копипаст.
Уже давно пора понять, что  скорость индексации в этом не помощник ( в сохранении уникальности контента)
И то, что ваш контент проиндексирован первым,  не дает вам никаких гарантий, точнее 0%

Вывод: И если ваш контент растащили за год. Совсем не обязательно его переписывать.

plab #:

Вполне возможно гугл уже давно может вычислять рерайт

И что с того, что научился? Научился определять, что - Уникальный контент? 
Так нет такого определения у Гугла


И что будет с того, если полностью скопирую вашу статью???? или 2-е или весь сайт?
Он будет для Гугла полностью не уникальным? Нет, это ваш сайт будет не уникальным.
потому, что вы не знаете, что такое уникальный контент по определению Гугл




Alekser #:
Вот только тексты ИИ по определению полезными быть не могут и точка.

С чего это не могут быть полезными? Это те же тесты с чужих сайтов и ничего более

GRAFLEKX #:

ТС уже не появляется, а здесь все воду льют любители поговорить )))

По сути - тоже с такой проблемой сталкиваюсь часто.

Решить можно только комплексно, иначе бот так и будет долбить по этим адресам.

1. Отключить на время обход по счетчикам, иначе любой заход по урлу Метрика отправляет как сигнал роботу на переобход. А еще лучше, вообще его отключить, ибо куча мусора идет по сигналам Метрики, с хорошим сайтмапом и структурой, никакой обход по счетчикам не нужен.

2. ЯВМ - Инструменты - Удаление страниц из Поиска - кидаем туда весь список урлов, на которые нужно запретить заход. Понимаю, звучит нелепо, но реально работает как-то так, что робот долбит эти страницы и удалять их нужно именно таким способом. Придется этот список кидать раза три, в течение пары недель. Со временем список сойдет на нет.

3. Если у урлов прослеживается общий путь, то добавить в robots.txt - Disallow маску этих урлов.

Через пару недель все закончится или заметно уменьшится.

Комплес работ который яляется бредом. Вместо стандартных решений.
- Включен обход по счетчикам на сайтах - удаляет 404 быстро.
Чем быстрее бот,  дойдет до удаленной страницы, тем быстрее он ее удалит.
- Запретить обход - вы запрещаете боту зайти на страницу и получить 404
- добавить в robots.txt Disallow - вы запрещаете боту зайти на страниицу и получить 404.
Удаленные страницы могут висеть при таком запрете вечно в индексе.

- Уменьшение скорости обхода.  Может оставить ее высокой, а уменьшить количество страниц при обходе сайта.
И сохранить при этом лимиты? И не создавать топики, что роботы кладут сайт из-за 404?
alexverem #:

искал подходящий не нашел, подскажите пжста инструмент )

Браузерный инспектор. Правой кнопкой по обьекту страницы - исследовать

alexverem #:

Поясните пжста что тут не так.. вроде это анкоры (якоря) для меню с содержанием

это бред, а не якоря.

<h2 class="title">
	<a id="tag-13"></a>Что еще посмотреть на трассе М4</h2>

<h2 class="title" id="tag-13">Что еще посмотреть на трассе М4</h2>

TonyBlackberry #:
Откройте html-код страницы и сравните эту статью с предыдущей (Парк Краснодар). И сразу всё поймете.
Не пробовал инструментами работать, для поиска ошибок в коде?
Всего: 8953