Mechenosec

Рейтинг
27
Регистрация
18.08.2009

InoHacker,

В том то и дело то они должны быть интересны и людям и поисковикам.

Просто один будит без рекламы и с полезной информацией, а второй с той же информацией только с рекламой.

Как правильно скрыть два сайта от разных поисковиков? Или как это лучше преподнести чтоб поисковики не забанили, так как инфа одна.

InoHacker,

В том то и дело что проекты делались и делаются интересные людям, они заходят и находят нужную информацию но вот поисковики считают что домен молод и чуть не так так крах.

Потому и идея воплощения всего на разных доменах, что один что второй интересен людям но один еще более удобен и без рекламы просто полезная информация, но увы без второй которая приносит доход никак.

Вот потому нужно знать как поведут себя поисковики увидев два разных сайта с одинаковым контентом, и как правильно скрыть чтоб или не увидели совсем или увидели но не предприняли серьезных действий а именно бана, ведь даже если сайт интересен но под баном то увы тяжело чтоб о нем узнали массы.

Помогите своими соображениями и догадками.

mlsha

Блин ну тогда они поисковики все увидят, и все же будит бан со временем.

Думаете нормально отреагируют что на две стороны создается. Но под гугл уже началось создаваться, а под Яшу пока нет.

mlsha

То есть не видите смысл от гугла закрывать.

Если он видит что создаются сайты практычески с одинаковым контентом то он их забанит или один или оба. Просто там будит выглядеть как много сайтов а там как один большой сайт который тырит инфу с множества маленьких несчатненьких сайтов.

А на счет того что от яндекса лучше сайт в роботс кинуть, так а не лучше его просто закрыть, типа там моя секретная инфа находится не заходи, по идеи он не должен на него заходить.

Ну а если сделать в роботсе весь домен, вы думаете что если увидит такую схему идущуюю по гуглу он ничего не сделает с сайтом который он индексирует?

ну не тряпками а что-то типа noindex, robots.txt или на крайняк

<?php

$p=getenv("HTTP_USER_AGENT");

$b=(stristr($p, "Yandex"));

if (!$b) {

echo '<p class=NN><a href=http://site.ru/>Вирусы</a> - заражённый сайт.</p>'; }

?>

Мне просто нужно знать увидят два разных поисковика сайты которые им видить не нужно, и как они поступят если и увидят что на них одинаковый контент?

Mechenosec добавил 22.01.2010 в 13:58

saleseo

Вот они и будут делаться одновременно, можно было бы зеркало сделать, но структура сайтов будит совсем разная, под гугл на поддоменах (это типа тысячи разных сайтов) и на вордпресе, а под яндекс это один большой чистый сайт на дле который обновляется сотни раз в день.

gtauter

Смысл в том чтоб что-то приносило доход сейчас а что-то потом но больше.

Сейчас будит рулить гугловская ветка с тысячами сайтов на поддоменах, но структура постройки будит выглядеть одним сайтом (все лишние ссылки в ноуфолов, именно меню перелинковки)

Пользователь сможет гулять по всем этим сайтам.

А вот под яндекс будит один сайт по всем его правилам, без никаких погрешностей (лишь его гугловская копия). Если сайт будит идеально чистым, с очень большим объемом тематических текстов, то через пол года можно с ним будит делать смело что угодно, не так бояться бана.

Но просто работа за идею эти пол года не привлекает.

На счет маленьких сайтов, это уж у каждого свое мнение, просто знаю что яндекс делается комерческим все больше и больше, и вскоре все может оказаться.

Это что-то вордпреса получается но класно.

А вот мне именно как новости выглядят нравится http://muslib.ru/b3034/Nightwish/

Мне чем-то меню дле напоминает но всеже удобнее.

И у них или сам движок или фильтры какие-то, ведут защиту от спама, что-то типа википедии. Там можно тоже добавлять как картинки так и инфу музыку и все такое.

Вот его рипнуть или движок такой возможно найти?

Тоесть смысл? Сейчас все знаем что маленькие саты будут в скоре баниться. Есть возможность создать очень много уникального контента, но просто тулить ее на чистый яндесовский сайт без рекламы и тем самым без дохода нет смысла, вот потому и хотим создать гугловскую ветку для, постройки на поддоменах, для навешивания рекламы, для продажи ссылок на крайний случай. А я ндесовский сайт просто пока с пол годика висел бы и рос чистенький зеркальный.

Кто-то пробовал такое делать?

Тут вот товарищь malls посоветовал сделать динамически ссылки. Но увы не сталкивались с этим. Может кто-то подскажет в этом направлении.

Это решило бы поидеи проблему, не нужно былобы и архивы делать, оно просто маскировало бы ссылку на ftp.

ну это понятно, а как сделать так чтобы пользователь скачивал весь альбом одной папкой не предоставляя доступ по FTP кроме архива. Или только один вариант : ставить ссылку на каждый файл списком и внизу ставить скачать архивом. Я то знаю как это сделать другим способом, но объяснять каждому и расписывать это на сайте ???

Всего: 68