Думаю, это первый признак по которому гугл начинает присматриваться к дорам.
А эти домены были просто зеркалами одного сайта или промежуточными страницами? В конечном счёте пользователь попадал на один сайт?
JakoDorgen моё хобби, а не коммерческий проект, и мне нет необходимости что-то преукрашивать, строить из себя гуру.
Тогда ссылку на категорию так выводить: [RANDLIST_FROM_FILE-[STATIC]ctglist.txt[/STATIC]-UNIC]
Дело в том, что RANDLIST_FROM_FILE загружает список перед созданием страниц, а категории сохраняются в файл скриптом при создании первой страницы. Получается что в рандлист загружаются категории предыдущего дора. В этом примере я добавил [STATIC] [/STATIC] чтобы рандлист не мог загрузить сразу список, а только при первой обработке макроса в шаблоне. Можно не [STATIC] а например [REPEAT-1]:
[RANDLIST_FROM_FILE-[REPEAT-1]ctglist.txt[/REPEAT]-UNIC]
Neo00007, сам баннер (изображение, ролик) одинаковый был? На этом же сайте лежал или с другого подгружался? У меня тоже урлы разные на каждой странице, но ведут на один домен (+ несколько его зеркал).
5LJRRP, да, тоже думаю, что урл слива - главный признак общности для гугла.
Neo00007, полностью из индекса выкидывало, или же по site:door.ru что-то оставалось?
saintnameless, я в РУ.
hakuna matata,
Только это нашёл.
igoreff, счётчик ли.ру не групповой, но код один и тот же (один тип и цвет). Раньше проблем не было. Сколько сейчас на одном ip вешаешь?
hakuna matata, совокупные признаки это конечно да, но гугл обычно накладывает фильтр, например, аффилиат, и траф просто падает до 10 человек в день, но страницы при этом не исключаются совсем. А тут как полный бан.
Tecak, у меня не каждый дор на отдельном ip, а по 30-50. Думаю, это приемлемо, т.к. на многих недорогих хостингах это вполне обычная картина. 20-30 это вообще норма. Так, у меня и на фрихостингах выпали!
igoreff, большинство было одной тематики, но часть была по разным. Как у тебя с гуглом?
Без редиректа и всплывающих окон. Просто баннер на самом видном месте (как на многих белых сайтах). Не адалт и всякое там, а хороший магазин.
По просьбе ramdweller модифицировал скрипт парсинга тайтлов, чтобы тайтл брался не из сниппета, а с сайта. Скачать - http://jakodorgen.ru/functions/TitleParser2.txt .
Положите файл TitleParser2.txt в папку functions вашего доргена.
На вкладке Scripting выполните код:
%^Imports:functions/TitleParser2.txt^% $$proxylist='http://урл-прокси-листа'; // укажите ваш прокси-лист $$keysfile='E:\mykeys.txt'; // укажите файл с ключевиками $$threads=50; // кол-во потоков $$take_titles=4; // сколько тайтлов парсить (4,8,12,16...) StartParse();
Для каждого кея тайтлы сохраняются в свой файл в папке titles.
Как сделать, чтобы парсинг тайтлов начинался автоматически в начале генерирования:
В начало шаблона впишите:
[SCRIPT] %^Imports:functions/TitleParser2.txt^% if($current_article==1){ kfile=app('path')+'\klist.txt'; t=''; for(i=1;i<=$keywords_count;i=i+1){t=t+$keyword+"\r\n";} writefile(kfile,t,'utf-8'); $$proxylist='http://ваш-прокси-лист'; // укажите ваш прокси-лист $$keysfile=kfile; $$threads=50; // кол-во потоков $$take_titles=2; // сколько тайтлов парсить (4,8,12,16...) StartParse(); } [/SCRIPT]
ramdweller, чтобы вывести в title впиши:
<title>[SCRIPT] if($page_type==3){text=readfile('titles\'+str_replace('/','',str_replace('"','',str_replace('?','',$page_keyword)))+'.txt','windows-1251'); explode("\r\n",text,$$titles); if(strlen($$titles[0])>0){print($$titles[0]);}else{print('[TITLE]');}}else{print('[TITLE]');} [/SCRIPT]</title>
Чтобы по завершению парсинга не выскакивало сообщение "Парсинг завершён!", закомментируйте в TitleParser2.txt строку: alert('Парсинг завершён!'); . Так:
//alert('Парсинг завершён!');---------- Добавлено 22.01.2015 в 16:01 ----------
В поле "Свои названия категорий (анкоры):" впиши:
[SCRIPT]print(readfile('D:\Файл-со-списком-категорий.txt','windows-1251')); [/SCRIPT]