Какую выгоду можно извлечь из заброшеного ресурса?

12
Reanimator
На сайте с 25.12.2002
Offline
120
1220

Был у меня ресурс

http://news.mari-el.ru

как я понял в базе гугла 26,800 страниц. Тенперь же их просто не существует, ресурс весил 800 метров, сейчас 3 метра хостинга и состоит из 1 индексной страницы и все неверные запросы перенаправляются на индексную, то есть апачу сказано, что в случае 404 страницы показывать индексную.

PR был 6/10 потом упал до 4/10, сейчас 5/10.

Alltheweb говорит

Find all 1,057 external web pages that link to "news.mari-el.ru".

Find all 11,657 web pages indexed under "news.mari-el.ru"

Какую выгоду можно извлечь из заброшеного ресурса?

Блог о SEO софте и сервисах (http://www.seo-office.ru) Dating Software (http://www.datingpro.com)
[Удален]
#1

Ссылок наставить на раскручиваемые ресурсы с нужным текстом.

U
На сайте с 28.05.2002
Offline
13
#2

Неплохо такой ресурец найти в заначке :)

[Удален]
#3

А сколько перенаправляется "404-го" трафика?

U
На сайте с 28.10.2001
Offline
109
#4

сам трафик просто средиректить куда нить на другой свой ресурс, естественно из той-же ниши. если же оного (другого ресурса нет) то просто продать.

ПР можно слить ралевантным текстом, да и бота куда надо направить.

дёшево хостим блоги здесь (http://sgmanaged.com/ru/) и тут-же наполняем их (блоги) контентом (http://republisher.ru)
Reanimator
На сайте с 25.12.2002
Offline
120
#5
Как писал ast
А сколько перенаправляется "404-го" трафика?

примерно 70-80%

Такой редирект является запрещенным? Отслеживают ли это поисковики?

U
На сайте с 28.10.2001
Offline
109
#6

отслкживают, если засветишься...

но ведь можно ошибку перехватить, до того как о ней узнает бот ;)

Reanimator
На сайте с 25.12.2002
Offline
120
#7
Как писал ulcer
отслкживают, если засветишься...
но ведь можно ошибку перехватить, до того как о ней узнает бот ;)

А можно об этом по подробнее?

U
На сайте с 28.10.2001
Offline
109
#8

тут самое главное чтоб апач твой не отдал код ошибки боту.

юзаешь mod_rewrite, который все обращения к твоему сайту будет перенаправлять на скрипт, который прост до безобразия.

т.е. сам скрипт должен проверить наличие запрошеного файла, и в случае его отсутствия ты можешь выдать любой другой документ. одним словом, наличие файла проверяет не апач, а твой скрипт.

вот .htaccess:

DirectoryIndex cgi-bin/go.pl?index.html

RewriteEngine On

Options +FollowSymlinks

RewriteBase /

RewriteRule ^(.*?)/(.*)$ $1cgi-bin/go.pl?$2

вот скрипт go.pl, что будет отдавать документы:


#!/usr/bin/perl

$filename=$ENV{"QUERY_STRING"};
open(FILE,"../$filename") or open(FILE,"../error.html");
undef $/;
$_=<FILE>;
print "Content-type:text/html\n\n$_";

mod-rewite-ом любой запрос типа your_domain.com/your_page.html приводится к виду your_domain.com/cgi-bin/go.pl?your_page.html

соответственно скрипт в строке $filename=$ENV{"QUERY_STRING"}; получит строку с именем запрошеного файла your_page.html. его он и пытается открыть в строке

open(FILE,"../$filename") or open(FILE,"../error.html");
и в случае неудачи он откроет пагу error.html

в таком варианте апач даже догадываться не будет о том, что произошло обращение к несуществующему документу.

Reanimator
На сайте с 25.12.2002
Offline
120
#9

Да неплохо, надо будет реализовать. Но возник вопрос такого плана. Допустим сейчас пока еще висят в индексе поисковика тыщи 3 страничек, не получится ли так, что через какое-то время все они заменятся на подставляемую, и в итоге в индексе будем иметь 3000 одинаковых страниц но с разными именами файлов которые в итоге склеятся в одну? Как долго чистится поисковик от несуществующих страниц, в моем случае 404 ошибки страницы должны выпасть из индекса, только неизвестно как долго это выпадание будет длиться. В данном случае трафик абсолютно не целевой, перенаправлять его нет особого резона. Как лучше поступить перехватывать обработку 404 скриптом или апачем. Или вообще забить на собираемый не целевой трафик и заботиться о сохранении имеющегося PR и слепить дорвеи.

U
На сайте с 28.10.2001
Offline
109
#10

я бы на твоем месте слепил доры с уникальным контентом и хорошим крослинком. для того, чтоб слить траф, и не потерять ПР.

при использовании изложеного мною варианта открываются большие горизонты. сайт, как таковой можно ваще избавить от статических хтмл-ов, и все генерить из скрипта.

изложу простой пример:

тебе ничего не мешает, помимо запрошеного документа узнать рефа. к примеру реф такой:

http://www.google.com/search?hl=en&ie=UTF-8&oe=UTF-8&q=jopa&btnG=Google+Search

прямо в скрипте разбираешь эту колбасу, выделяешь q=jopa, откуда видно что человек искали именно jopa. делаешь выводы, и прямо из скрипта, по шаблону генеришь специально для него дор, заточеный под искомое слово. т.е. выкладываешь в шаблон ралевантный текст. разбавляешь контент конкретно этим ключевым словом, вбиваешь его в метатэги итд... сам понимаешь что.

при конце у тебя получится следющее: какой бы документ сёрфер не запросил с твоего сервака, ты, разобрав его реф выдаешь ему именно то, что он желает увидеть.

соответственно, если реф скрипт не смог разобрать, выдай ему какую нить стандартную пагу...

в общем включай мозги, и работай, тут есть над чем подумать ;)

удачи.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий