- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ага, именно так.
мысль конечно интересная, но сколько ж это системных ресурсов понадобится что бы прочесать полтора миллиарда страниц(к примеру) для того что бы сравнить содержимое одной странички, хотя разработчики что нибудь придумают на то они и разработчики, на то им и деньги платят что бы думали.
genjnat, Вы хотите, что бы яндекс Ваш сайт в выдаче выше ставил или, что бы удалил из своей базы "плагиат"?
Тут, вроде все эти вопросы тоже рассматриваются: /ru/forum/306457
Ага, именно так.
вы выставляете на своем сайте новую статью, в туже минуту я у вас её копирую на свой старый, трастовый сайт, на котором роботы живут практически постоянно... и моя копия попадает в индекс раньше вашего оригинала... как в таком случае определять первоисточник?
это утопия...
angr добавил 16.01.2009 в 18:54
Str256, да, тема совсем баянистая...
вы выставляете на своем сайте новую статью, в туже минуту я у вас её копирую на свой старый, трастовый сайт, на котором роботы живут практически постоянно... и моя копия попадает в индекс раньше вашего оригинала... как в таком случае определять первоисточник?
это утопия...
angr добавил 16.01.2009 в 18:54
Str256, да, тема совсем баянистая...
Ну да конечно, но ведь так чтобы сразу скопипиз.... редкость, да и как если в выдаче ПС моей статьи еще нет.
Ну да конечно, но ведь так чтобы сразу скопипиз.... редкость, да и как если в выдаче ПС моей статьи еще нет.
элементарно, пишется грабер и автоматом всё сливает, хоть через каждые 5 минут...
и выдача ПС здесь пока ни причем...
и мы кажется говорим не о технической стороне копирования текстов, а о том, что предложенный вами метод никуда не годится для определения первоисточника...
элементарно, пишется грабер и автоматом всё сливает, хоть через каждые 5 минут...
и выдача ПС здесь пока ни причем...
и мы кажется говорим не о технической стороне копирования текстов, а о том, что предложенный вами метод никуда не годится для определения первоисточника...
Да я ничего и не предлагаю, это, так, крик души. Не так давно вынужден был переписывать контент, и именно по причине неуникальности и санкций наложенных за это Яндексом (других причин ненаблюдалось).
Да я ничего и не предлагаю, это, так, крик души. Не так давно вынужден был переписывать контент, и именно по причине неуникальности и санкций наложенных за это Яндексом.
ТС, вы бы хоть топик по моей ссылке прочитали. Хотя бы, этот пост. Тогда бы может не повторяли одни и те же вопросы.
Под пятничным пивом пришла такая мутная идея в голову, суть:
Яшка создает сервис по мгновенному добавлению страницы в индекс (правда тут есть моменты которые обдумывать я не буду, в смысле новости на каждой странице, или еще какой контент который повторяется на всех страницах и не только на данном сайте, это опять про новости);
Вебмастер создает новую страницу с уникальным контентом, при этом она не отображается ни в меню, и зайти на неё с сайта невозможно (щоб не стырыли), но она существует (как это сделать думаю понятно);
вебмастер добавляет эту страницу в этот сервис;
в этот же момент (при добавлении) записывается дата и время её появления (добавления) в Яшке;
она попадает в индекс если проходит критерий уникальности (не обязательно чтоб сразу была в выдаче (быстроробот), главное чтоб дата была записана и текст страницы остался в кэше, но появлялась при следующем АПе);
затем Яшка храня запись о этой странице, сравнивает все добавляемые, через этот же сервис и добавляемые обычным роботом, страницы с этой, и остальными добавленными таким же способом (с помощью сервиса) вычисляет дубликаты по датам индексации, и тут уж делает с дублями что хочет.
После АПа вебмастер спокойно добавляет свою страничку в меню и т.*д.
Я конечно понимаю что это может быть пивной бред, но это мои мысли, пока что другого в голову не приходило, по поводу авторства :D Да и не задумывался раньше :)
Это все мое личное...
Сталкивался с воровством не раз, и всегда тупо переписывлся контент, правда было пару раз так, что писал админу сайта и он добросовестно ставил ссылку на источник, правда приходилось пригрозить баном от хостера :) Но ведь подействовало...
ТС, Вы вчера родились?