Восток

Восток
Рейтинг
90
Регистрация
27.09.2009

проверяльщику вообще пофиг на ваши роботс и ноуиндекс - сервисы скриншота сайта видели? как работает понимаете? обычный эмулятор браузера натравляется на подозрительный сайт (недавно зарегистрированный, слишком уж напичканый ключами, да и текст сайта не соотвествует нормам русского языка (читай бредосгенерированный)) и засекается переброс с этого подозрительно сайта на платник с реф ссылкой. Думаете это нормально? Натравить эмулятор сайта на 1 страницу подозрительного сайта не так сложно (технически) поэтому все и палится на раз

роботс какбы не самое главное о чем я хотел сказать

а я даже вот как делал:

robots.txt:

...

Disallow: /ajax/

...

в доре:

<script type="text/javascript" src="/ajax/ajax.js"></script>

в этом скрипте через XMLHTTP (аjax) скачиваю файл gif.gif и eval() его содержимого

а в файле gif.gif settimeout() на защифрованный редирект...

ппц матрешка да? Проводил эксперименты на 10 дорах. После индексации морды и ~500 страниц за два апа все саты были полностью выкинуты из индекса.

Использовать кнопку выходит эффективнее всяких хитроумных метов т.к. теряем 30% трафа, но доры живут дольше и все равно выходит больше профита.

я тут сделал модификацию этого доргена под себя, пофиксил много багов, добавил вложенные макросы, изменения типа разширения файла php/html, новый генератор текста...

Если автор не против сделаю отдельный топ с сохранением копирайта?

вы знаете, похоже что действительно АГС17 никак не влияет на ссылочное, я убрал ссылки с таких сайтов и вылетел с позиций

вопрос в догонку, статьи выкладываются в стиле livejournal , т.е. есть основная часть текста и кусок под "катом", который отображается в списске статей и результате поиска по тегам, Насколько это вредит уникальности основной части текста? Если статья 3000 знаков а под катом 1000 - эффект уникальности имею оставшиеся 2000 или кат тоже весит чего то?

Восток добавил 06.10.2009 в 22:12

Статьи лучше размещать на тематических сайтах.

Это как я понимаю через биржы статей. Вот прочитал иструкцию из топика "Как поднять ТИЦ до 100-300 статьями .... " - меня не тиц интересует а нужны позиции в поисковиках.

Если выкладывать статьи на чужих сайтах то повышается тиц а если на своих то позиции? Так да?

почему? судя по стате боты заходят на сайт довольно часто, не думаю что им это понравится

Вот запись из лога сайта:

06.10 18:25 ...

06.10 18:23 ...

06.10 18:23 ...

06.10 18:21 ...

06.10 18:19 ...

06.10 18:09 ...

--- даунъ --- потеря клинетов, просяду по позициям, кароче спасибо мажордоме мля

06.10 14:23 ...

06.10 12:56 ...

06.10 12:55 ...

Общий даун = 5.30 часов (((((

хз ... пусть без ника:
дор - не дорген

1. ПС и посетители будут ходить по существующим страницам на доре. какие ololo могут быть ?
2. итак один раз генерится + есть ограничение на количество урлов.
3. с 6 мб текста быстро генерит. хотя, может и надо.
4. мне лично совсем не надо. наверно как и многим.
5. вообще не нужен. лишняя нагрузка. текстовку надо просто брать правильную.

1. Если в наборе доргена есть 404 и механизм выдачи этой странцицы, значит нужно чтоб этот механизм работал правильно

3. У меня на денвере загрузка процессора подскакивает до 30% за генерацию одной страницы (тестовка 150кб). Если пустить паука на дор (teleport ом выкачать к примеру) думаю будет очень большая нагрузка => палево => наш хостер обратит на нас внимание...

Пункты 4 и 5 комментировать не буду. Я например хочу иметь возможность в любой момент исполнить php код на странице. Добавил в шаблон <?php include("bottom.php"); ?> и можешь в любой момент изменить код редиректа, поставить счетчик там или еще чего. Синонимайзер вещь полезная, тебе не нужно, не значит что всем.

классный дор, спасибо! По поводу недочетов, то что я исправил для себя:

1. Ошибка 404 не отображается для страниц вида http://dor.ru/ololo.php - т.к. дор ищет страницу с ключем ololo, не находит её и возвращает пустую страницу

фикс, файл index.php:

if (in_array($name, $pages)) { //Если существует такой кей, то...

.... тут много много кода

}

else file("404.html");

2. Sitemap.xml много весит сильно нагружает серв если ключей > 3к

я сделал так что он генерировался не динамически а один раз

3. Опять же большая нагрузка на сервер при генерации текста из исходника > 150kb. Нужно либо брать рандомный кусок из файла:

$rand = rand(0,filesize()-10.000);

fopen();

fread($file,$rand)

$TEXT=fread($file,10000); //небольшой кусочек случайного текста из файла

synonymize($TEXT);

generate($TEXT);

....

либо разбить его на части и брать из них.

4. Заменил везде

header("Content-type: text/html");

echo file_get_contents("$host/pages/$name.php");

на include("$host/pages/$name.php"); exit();

чтобы можно было вызывать php код из шаблона

5. рекомендую автору добавить синонимайзер текста (хотя бы самый простой) и макрос для него.

Остальное палить не буду :) Но дорген получился адский.

Всего: 84