Где гарантия что неизвестный rusy научился хорошо определять нужные дропы? 😂
Спасибо Доброму человеку написавшему в личку :)
Вот здесь можно смотреть дропы - https://www.reg.ru/domain/new/freeing_domains
Можно в архиве глянуть на сайт который висел на этом домене, посмотреть ссылки в Соломоно и попытаться приблизительно оценить домен.
Но это не даст 100%й гарантии что домен не под фильтром. Пока сайт (дор) на него не повесишь результат не узнаешь.
Может стоит брать дропы на которых не было сайта?
Может кто спалит как определить качество дропа? ну не на 100% а хотя бы на 90% :) Можно в личку.
Не похож, должны быть только картинки с гусями, кеи в разных местах шаба и никакого текста. Текст все портит. 😂
Была у меня точно такая же ситуация с сайтом на 100%м копипасте.
Свежерег, 9к страниц, копипаст.
Google сразу домен в бан отправил.
Прошло пару лет и он сжалился над сайтом.
Главное - верить и ждать 😂
co6p, зря все страницы выложил сразу. Может еще и карту ему подсунул?
Контент говно, страниц много, свежерег ... гугл хоть и лошара но не настолько же.
Надо было 1-2к положить, подождать пару дней, потом ограничить скорость сканирования сайта в вебмастере и выложить остальные страницы.
Опыт из моего "белого" прошлого.
Flamable, просто не кормите троллей.
Теперь все работает! :) Спасибо!---------- Добавлено 05.01.2014 в 02:27 ----------Вопрос по поводу макроса [random.line:d:\1.txt]
Допустим в 1.txt 100 строк (или даже 999)
Макрос будет использовать на 1000 страниц, то есть сумарно будет выведено 1000 строк.
Есть вероятность что какая то случайная строка не будет использована ни разу?
Прикрутить бы к нему -del как в [text.asis:X]
Создал robots.txt с текстом:
User-agent: *
Host: [account.url]
Sitemap: http://[account.url]/sitemap.xml
После генерации в папке нет файла robots.txt
Почему?---------- Добавлено 05.01.2014 в 00:04 ----------Если создать в папке ImportInfo\Templates txt файл с текстом:
[account.url]
После генерации дора он почему-то не обрабатывается.
Все остальные файлы-шаблоны обрабатываются нормально.---------- Добавлено 05.01.2014 в 01:02 ----------Разобрался, если не использовать в шаблоне #template# то файл-шаблон не обрабатывается и сделать так как мне нужно невозможно.
Пока сделал так:
#template###template#
После генерации получаю:
Host: doorway
Sitemap: http://doorway/sitemap.xml
#
... решеток будет столько же сколько страниц у дора (100500) :)
После генерации нужно будет каждый robots открыть и решетки по удалять :(
rasiell, можно это поправить?
Можно в ImportInfo\Templates добавить простейший шаблон robots.txt?
Например вот такой:
Host: [site]
Sitemap: http://[site]/sitemap.xml
Залил 30 доров на фрихи за новогоднюю ночь 😂
Ловлю на слове 🙄