InoHacker,
В том то и дело то они должны быть интересны и людям и поисковикам.
Просто один будит без рекламы и с полезной информацией, а второй с той же информацией только с рекламой.
Как правильно скрыть два сайта от разных поисковиков? Или как это лучше преподнести чтоб поисковики не забанили, так как инфа одна.
В том то и дело что проекты делались и делаются интересные людям, они заходят и находят нужную информацию но вот поисковики считают что домен молод и чуть не так так крах.
Потому и идея воплощения всего на разных доменах, что один что второй интересен людям но один еще более удобен и без рекламы просто полезная информация, но увы без второй которая приносит доход никак.
Вот потому нужно знать как поведут себя поисковики увидев два разных сайта с одинаковым контентом, и как правильно скрыть чтоб или не увидели совсем или увидели но не предприняли серьезных действий а именно бана, ведь даже если сайт интересен но под баном то увы тяжело чтоб о нем узнали массы.
Помогите своими соображениями и догадками.
mlsha
Блин ну тогда они поисковики все увидят, и все же будит бан со временем.
Думаете нормально отреагируют что на две стороны создается. Но под гугл уже началось создаваться, а под Яшу пока нет.
То есть не видите смысл от гугла закрывать.
Если он видит что создаются сайты практычески с одинаковым контентом то он их забанит или один или оба. Просто там будит выглядеть как много сайтов а там как один большой сайт который тырит инфу с множества маленьких несчатненьких сайтов.
А на счет того что от яндекса лучше сайт в роботс кинуть, так а не лучше его просто закрыть, типа там моя секретная инфа находится не заходи, по идеи он не должен на него заходить.
Ну а если сделать в роботсе весь домен, вы думаете что если увидит такую схему идущуюю по гуглу он ничего не сделает с сайтом который он индексирует?
ну не тряпками а что-то типа noindex, robots.txt или на крайняк
<?php
$p=getenv("HTTP_USER_AGENT");
$b=(stristr($p, "Yandex"));
if (!$b) {
echo '<p class=NN><a href=http://site.ru/>Вирусы</a> - заражённый сайт.</p>'; }
?>
Мне просто нужно знать увидят два разных поисковика сайты которые им видить не нужно, и как они поступят если и увидят что на них одинаковый контент?
Mechenosec добавил 22.01.2010 в 13:58
saleseo
Вот они и будут делаться одновременно, можно было бы зеркало сделать, но структура сайтов будит совсем разная, под гугл на поддоменах (это типа тысячи разных сайтов) и на вордпресе, а под яндекс это один большой чистый сайт на дле который обновляется сотни раз в день.
gtauter
Смысл в том чтоб что-то приносило доход сейчас а что-то потом но больше.
Сейчас будит рулить гугловская ветка с тысячами сайтов на поддоменах, но структура постройки будит выглядеть одним сайтом (все лишние ссылки в ноуфолов, именно меню перелинковки)
Пользователь сможет гулять по всем этим сайтам.
А вот под яндекс будит один сайт по всем его правилам, без никаких погрешностей (лишь его гугловская копия). Если сайт будит идеально чистым, с очень большим объемом тематических текстов, то через пол года можно с ним будит делать смело что угодно, не так бояться бана.
Но просто работа за идею эти пол года не привлекает.
На счет маленьких сайтов, это уж у каждого свое мнение, просто знаю что яндекс делается комерческим все больше и больше, и вскоре все может оказаться.
Это что-то вордпреса получается но класно.
А вот мне именно как новости выглядят нравится http://muslib.ru/b3034/Nightwish/
Мне чем-то меню дле напоминает но всеже удобнее.
И у них или сам движок или фильтры какие-то, ведут защиту от спама, что-то типа википедии. Там можно тоже добавлять как картинки так и инфу музыку и все такое.
Вот его рипнуть или движок такой возможно найти?
Тоесть смысл? Сейчас все знаем что маленькие саты будут в скоре баниться. Есть возможность создать очень много уникального контента, но просто тулить ее на чистый яндесовский сайт без рекламы и тем самым без дохода нет смысла, вот потому и хотим создать гугловскую ветку для, постройки на поддоменах, для навешивания рекламы, для продажи ссылок на крайний случай. А я ндесовский сайт просто пока с пол годика висел бы и рос чистенький зеркальный.
Кто-то пробовал такое делать?
Тут вот товарищь malls посоветовал сделать динамически ссылки. Но увы не сталкивались с этим. Может кто-то подскажет в этом направлении.
Это решило бы поидеи проблему, не нужно былобы и архивы делать, оно просто маскировало бы ссылку на ftp.
ну это понятно, а как сделать так чтобы пользователь скачивал весь альбом одной папкой не предоставляя доступ по FTP кроме архива. Или только один вариант : ставить ссылку на каждый файл списком и внизу ставить скачать архивом. Я то знаю как это сделать другим способом, но объяснять каждому и расписывать это на сайте ???
Что-то такое http://www.free-lance.ru/users/Mechenosec/viewproj.php?prjid=1513646?