Есть еще один способ передать, через дополнительные параметры.
Код вверху страницы дорвея:
<?php if(empty($_SERVER['HTTP_REFERER'])){$ref = '';} else{$ref = $_SERVER['HTTP_REFERER'];} $array[0] = array( 'referer'=>$ref, 'par_1'=>'catalog/file.mp3' ); $parameters = base64_encode(serialize($array)); ?>
Ссылка на платник:
<a href="http://tds.com/dwl?q=ключевое слово&p=<?php echo $parameters; ?>">Скачать</a>
В ауте потока:
http://platnik.com/[PAR-1]
Для редиректа замени:
'par_1'=>'catalog/file.mp3'
на
'par_1'=>'/ru/forum/comment/15375609;posted=1#post15375609'
и в ауте пропиши:
[PAR-1]
Найди строку в index.php:
$key = urlencode($key);
И закомментируй ее.
Наверно вот так ты пробовал:
http://tds.com/dwl?q=catalog/file.mp3
ТДС автоматом кодирует ключевые слова через urlencode() и / меняется на %2
Если этого не делать будут кракозябры на платниках.
Почисть ключевые слова от спец символов.
http://tds.com/dwl/catalog/file.mp3
ТДС подумает что она расположена в папке "dwl" и ты пытаешься отправить юзера в группу "catalog", передавая при этом ключевое слово "file.mp3".
Но ведь это все совсем не так :)
Такой результат вполне предсказуем, в ключевых словах не должно быть символов ?&/
Заглушку снес и вместо нее вылез другой домен.
Спасибо что предупредил :)
Допустим нужно отобрать посетителей из воронежской области, прийдется собирать названия всех городов которые в нее входят и прописывать их в фильтре "Города" через запятую.
Если использовать фильтр по геокоду то достаточно прописать "RU-VOR".
Точность будет точно такой же как при использовании фильтра по городам.
По базе https://sypexgeo.net
Топ, мне не горит, я готов подождать :)
Просто реально надоело два раза парсить ПС, сначала сниппеты а потом ссылки на статьи.
Можно же все организовать в одном пресете (я проверил), только LAP чуть допилить надо.
TopperHarley
LAP, парсятся имаги, сниппеты и статьи.
В пресете парсинга сниппетов можно настроить сохранение ссылок в отдельный файл, например links.txt, сохранение сниппетов останется по умолчанию.
Научи пожалуйста LAP проверять наличие файла links.txt, что бы не парсить повторно ссылки на статьи.
Ну и после парсинга статей links.txt надо удалить.