ro--ot

ro--ot
Рейтинг
164
Регистрация
18.12.2009
rusy:
Кто научился определять нужные дропы, потратил время и средства, что бы этого добиться и врят ли спалит не известному ro--ot за спасибо. Ты либо предложи достойную сумму в $ либо сам разбирайся третьего не дано.

Где гарантия что неизвестный rusy научился хорошо определять нужные дропы? 😂

Спасибо Доброму человеку написавшему в личку :)

nikoxi:
Подскажите пожалуйста, как и где искать и покупать дропы?

Вот здесь можно смотреть дропы - https://www.reg.ru/domain/new/freeing_domains

Можно в архиве глянуть на сайт который висел на этом домене, посмотреть ссылки в Соломоно и попытаться приблизительно оценить домен.

Но это не даст 100%й гарантии что домен не под фильтром. Пока сайт (дор) на него не повесишь результат не узнаешь.

Может стоит брать дропы на которых не было сайта?

Может кто спалит как определить качество дропа? ну не на 100% а хотя бы на 90% :) Можно в личку.

cscope:
По описанию похож на пресловутый ДДЛ?

Не похож, должны быть только картинки с гусями, кеи в разных местах шаба и никакого текста. Текст все портит. 😂

Была у меня точно такая же ситуация с сайтом на 100%м копипасте.

Свежерег, 9к страниц, копипаст.

Google сразу домен в бан отправил.

Прошло пару лет и он сжалился над сайтом.

Главное - верить и ждать 😂

co6p, зря все страницы выложил сразу. Может еще и карту ему подсунул?

Контент говно, страниц много, свежерег ... гугл хоть и лошара но не настолько же.

Надо было 1-2к положить, подождать пару дней, потом ограничить скорость сканирования сайта в вебмастере и выложить остальные страницы.

Опыт из моего "белого" прошлого.

Flamable, просто не кормите троллей.

Теперь все работает! :) Спасибо!

---------- Добавлено 05.01.2014 в 02:27 ----------

Вопрос по поводу макроса [random.line:d:\1.txt]

Допустим в 1.txt 100 строк (или даже 999)

Макрос будет использовать на 1000 страниц, то есть сумарно будет выведено 1000 строк.

Есть вероятность что какая то случайная строка не будет использована ни разу?

Прикрутить бы к нему -del как в [text.asis:X]

Создал robots.txt с текстом:

User-agent: *

Host: [account.url]

Sitemap: http://[account.url]/sitemap.xml

После генерации в папке нет файла robots.txt

Почему?

---------- Добавлено 05.01.2014 в 00:04 ----------

Если создать в папке ImportInfo\Templates txt файл с текстом:

[account.url]

После генерации дора он почему-то не обрабатывается.

Все остальные файлы-шаблоны обрабатываются нормально.

---------- Добавлено 05.01.2014 в 01:02 ----------

Разобрался, если не использовать в шаблоне #template# то файл-шаблон не обрабатывается и сделать так как мне нужно невозможно.

Пока сделал так:

User-agent: *

Host: [account.url]

Sitemap: http://[account.url]/sitemap.xml

#template###template#

После генерации получаю:

User-agent: *

Host: doorway

Sitemap: http://doorway/sitemap.xml

#

#

#

... решеток будет столько же сколько страниц у дора (100500) :)

После генерации нужно будет каждый robots открыть и решетки по удалять :(

rasiell, можно это поправить?

Можно в ImportInfo\Templates добавить простейший шаблон robots.txt?

Например вот такой:

User-agent: *

Host: [site]

Sitemap: http://[site]/sitemap.xml

sidorka:
Новогодняя ночь пытливому уму не помеха :)

Залил 30 доров на фрихи за новогоднюю ночь 😂

Force68:
напишу подробный мануал

Ловлю на слове 🙄

Всего: 995