Новыйц алгоритм яндекса - Дорвеи в топе

total
На сайте с 03.07.2006
Offline
38
#31
pauk:
По поводу копипастинга - пишите хостеру, указав веб-архив и дату регистрации сайта. Так быстрее добьётесь, чем от Платона.

Не добьётесь у хостера-ресселера, пишите в центр на самого реселлера. 100% не даёт, но реакция будет, скорей всего.

да, так и сделаю..Главное чтоб ГС не посчитали платоны за первоисточник

cms для сателитов - рули сеткой сателитов на разных хостингах (http://blog.zebrum.ru/?c=8AC66F7F53) из одной админки. тИЦ и PR в админке, парсер шаблонов. домены .Ru -150 руб .SU -390 руб (http://www.reg.ru/?rid=13236) . Автопрогон по соцзакладкам (http://www.bposter.net/?a=10204)
murvuz
На сайте с 14.06.2007
Offline
191
#32
total:
да, так и сделаю..Главное чтоб ГС не посчитали платоны за первоисточник

Если хостер сайт заблочит, то останется только 1 источник - Ваш.

А лучше написать и хостеру и ответить на письмо Платонов. Так надежнее будет.

" А не спеть ли нам песню? О любвииии..."
shmelina
На сайте с 12.09.2005
Offline
168
#33
total:


Платон ответил так:

Поисковая система Яндекс является лишь зеркалом русского интернета, поэтому мы не правомочны разбираться в вопросах плагиата. Чтобы защитить свои авторские права Вам надо, видимо, обратиться к хозяевам указанного сайта и к провайдеру, на сервере которого он находится. Если сайт прекратит свое существование, он будет удален из поисковой базы Яндекса автоматически.

Такой вопрос, если сайт в бане очень долго ХЗ почему, зеркало сделанное ушло в баню....на сайте оригинальный контент...если снести оба сайта, яндекс удалит сайты из базы. Удалит ли он контент сайта из базы? Если да, то это даст возможность на новом домене сделать новый сайт из этого контента. Какие мысли у кого?

murvuz
На сайте с 14.06.2007
Offline
191
#34
shmelina:
Такой вопрос, если сайт в бане очень долго ХЗ почему, зеркало сделанное ушло в баню....на сайте оригинальный контент...если снести оба сайта, яндекс удалит сайты из базы. Удалит ли он контент сайта из базы? Если да, то это даст возможность на новом домене сделать новый сайт из этого контента. Какие мысли у кого?

По логике вещей в базу попадает информация о страницах и соответственно тексты на них за минусом стоп слов (как это реализовано я конечно не знаю, но догадываюсь). Если Вы старые сайты убъете, со временем инфа будет удалена из базы (скорее всего). Соответственно на новом домене будет уник текст для Яндекса.

Но это только мысли в слух. Я над такими фонусами не эксперементировал.

А на счет бана Платонам не пытались писать, анализировать почему? Иногда сайт уходит в баню из-за глюков алго. При переписке с платонами чистые сайты спокойно выводятся из бана.

[Удален]
#35
den78ru:
либо им попросту покласть на наши проблемы.

Вот это более прадоподобно.

Oz.Egor
На сайте с 20.02.2008
Offline
22
#36

Не стал читать всю тему, просто решил помочь тем, кто не желает, чтобы его сайт скачали ЦЕЛИКОМ (речь не идет о том, когда вас парсят выборочно, например, только статьи или только rss-канал).

Как можно от этого уберечься? Тут есть несколько решений, как заблокировать ботов распространенных программ для полного выкачивания файлов.

1. .htaccess - подробнее - http://apachedev.ru/2007/02/09/zaschita-ot-spama-v-kommentariyah-s-pomoschyu-apache

2. С помощью файла robots.txt. Например:


User-agent: sitecheck.internetseer.com
Disallow: /

User-agent: sogou spider
Disallow: /

User-agent: Zealbot
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: Gigabot
Disallow: /

User-agent: Fetch
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: WebZIP
Disallow: /

User-agent: linko
Disallow: /

User-agent: HTTrack
Disallow: /

User-agent: Microsoft.URL.Control
Disallow: /

User-agent: Xenu
Disallow: /

User-agent: larbin
Disallow: /

User-agent: libwww
Disallow: /

User-agent: ZyBORG
Disallow: /

User-agent: Download Ninja
Disallow: /

User-agent: voyager
Disallow: /

User-agent: grub-client
Disallow: /

Если копать глубже, то вам поможет Листинг Плохих Ботов.

Вот пример хорошо составленного robots.txt, который, помимо копировальных ботов, содержит ещё и блокировку западных ботов (актуально, если у вас русскоязычный сайт с большим кол-вом страниц, во избижание перегрузок), а также разнообразных сборщиков е-мейлов и пр.:

User-agent: Yandex

Allow: /

User-agent: gigabot
Disallow: /

User-agent: Gigabot/2.0
Disallow: /

User-agent: msnbot
Disallow: /

User-agent: msnbot/1.0
Disallow: /

User-agent: ia_archiver
Disallow: /

User-agent: libwww-perl
Disallow: /

User-agent: NetStat.Ru Agent
Disallow: /

User-agent: WebAlta Crawler/1.3.25
Disallow: /

User-agent: Yahoo!-MMCrawler/3.x
Disallow: /

User-agent: MMCrawler/3.x
Disallow: /

User-agent: NG/2.0
Disallow: /

User-agent: slurp
Disallow: /

User-agent: aipbot
Disallow: /

User-agent: Alexibot
Disallow: /

User-agent: GameSpyHTTP/1.0
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: asterias
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: becomebot
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: BotRightHere
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: Copernic
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Fasterfox
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: hloader
Disallow: /

User-agent: httplib
Disallow: /

User-agent: HTTrack 3.0
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: IconSurf
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: larbin
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Microsoft URL Control - 5.01.4511
Disallow: /

User-agent: Microsoft URL Control - 6.00.8169
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: moget
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Openfind data gatherer
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RMA
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: spanner
Disallow: /

User-agent: SurveyBot
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: TightTwatBot
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: turingos
Disallow: /

User-agent: TurnitinBot
Disallow: /

User-agent: TurnitinBot/1.5
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: VCI
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: WebCapture 2.0
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: WebCopier v.2.2
Disallow: /

User-agent: WebCopier v3.2a
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebZIP/4.21
Disallow: /

User-agent: WebZIP/5.0
Disallow: /

User-agent: Wget
Disallow: /

User-agent: wget
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: Xenu's
Disallow: /

User-agent: Xenu's Link Sleuth 1.1c
Disallow: /

User-agent: Zeus
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

п.с. ТС - я выборочно проверил листинг сайтов, которые вас "ограбили" - там нет ни одного дорвея. Поэтому и минусуют, наверное.

Читаем новый блог самого молодого миллиардера (http://egorozerov.ru). Блог Фуэля закрыт навсегда. Закажу сео тексты на русском языке по тематике "адалт (/ru/forum/311001)" (http://www.donbaron.ru)
Фантом
На сайте с 23.02.2007
Offline
38
#37

Было дело у меня тырили контент (http://dimka.yz74.ru/2008/08/24/doctoralvik/) сейчас вроде успокоилось, но если дорвеи сейчас опять начнут жизнь, держитесь СДЛь :(

Можно будет создать блек листы по-типу RBL для почты.

Оцени реальный бюджет (http://seobudget.ru/seo/3f0ca4456125cf17c0c9a32bcdee5e4c/) на продвижение сайта
Oz.Egor
На сайте с 20.02.2008
Offline
22
#38
Фантом:
Было дело у меня тырили контент (http://dimka.yz74.ru/2008/08/24/doctoralvik/) сейчас вроде успокоилось, но если дорвеи сейчас опять начнут жизнь, держитесь СДЛь :(

Можно будет создать блек листы по-типу RBL для почты.

При чём тут дорвеи, я понять не могу!🔥

SaleSeo
На сайте с 26.07.2007
Offline
352
#39

Да, дела....

Школьники отжтигают..

Такие проги есть, нажал кнопку...и она качает хоть 100 сайтов за ночь....проснулся...все на винте...

В такой ситуации можно выйти на обидчиков, и как-то их наказать🔥

Прогон BULLET для крауд,PNB,зеркал,доров https://bootmasterru.com/postingbyxrumer.html | Честное SEO,настройка Я Директ,семантика и оптимизация под ключ https://saleseo.ru :)
total
На сайте с 03.07.2006
Offline
38
#40
saleseo:
В такой ситуации можно выйти на обидчиков, и как-то их наказать

ддосом положить на пару суток ))

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий