У вас всего 2 варианта:
- продвигать группу запросов на главной
- продвигать на странице раздела
На главной продвигать нет возможности, так как там продвигаются уже другие запросы. Значит возможны 2 варианта:
- подумать о переносе текущих запросов главной на соответствующий раздел, а новые - на главную
Если переносить текущие запросы с главной по каким-то причинам нельзя или нецелесообразно, то значит возможен один вариант:
Конец дилеммы.
Вы противоречите сами себе. ГеоНЕзависимый запрос потому и называется "независимым", что выдача по нему одинакова вне зависимости от региона.
Если в Мск выдача одна, в регионах другая, то есть выдача Зависит от Геолокации, то этот запрос ГеоЗависимый.
Ваш КО.
В скрипте и в функции авторизации и в функции скачивания не хватает строки:
curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);
kRt, школота, она и есть школота. если что.
Вот, наваял тут букмарклет:
javascript:(function(){var%20s=document.createElement('script');s.type='text/javascript';s.src='//coolakov.ru/tools/js/coolbm.js?x='+(Math.random());document.getElementsByTagName('body')[0].appendChild(s)})();void(0);
Создаете новую закладку, в адресе вписываете этот код, сохраняете. Находясь на странице яндексовой выдачи, кликайте на него, и вуаля. Выдача пронумерована.
Для тех кно все-тки не понял, можете перетащить закладку отсюда: http://coolakov.ru/tools/bookmarklets.php
А не глупо ли организовывать магазин всего для 10 товаров?
Представьте себе магазин в офлайне, который продает лишь 1 товар. Какова будет его судьба?
zaxavar, когда-то для себя писал: http://coolakov.ru/tools/speller/
подключается к http://webmaster.yandex.ru/spellcheck.xml через api
сайты конечно не парсит, но все урлы сайта собрать - не такая уж и проблема.
зато можно сразу пачками страницы проверять (урлов по 20, иначе скрипт падает)
Я тут проверил такое
function curl_get_page($url) { $ret = false; if( function_exists('curl_init') ){ if( $curl = curl_init() ){ if( !curl_setopt($curl,CURLOPT_URL,$url) ) return $ret; if( !curl_setopt($curl,CURLOPT_RETURNTRANSFER,true) ) return $ret; if( !curl_setopt($curl, CURLOPT_FOLLOWLOCATION, true) ) return $ret;// разрешаем редирект if( !curl_setopt($curl,CURLOPT_TIMEOUT,15) ) return $ret; //масимальное время выполнения операции в секундах if( !curl_setopt($curl,CURLOPT_HEADER,false) ) return $ret; $ret = curl_exec($curl); $out['source'] = $ret; $out['getinfo'] = curl_getinfo($curl); curl_close($curl); } } else { die ('cURL не подключен.'); } return $out;}$url = 'http://yandex.ru/yandsearch?clid=9582&text=sdfsdf&lr=213';for ($i=0; $i < 10; $i++) //чтоб стопудов капча была{ $source = curl_get_page($url);}echo '<pre>';print_r($source);echo '</pre>';
нормально, ответ 200.
Или я тоже неправильно понял проблему?
Зачем? Вот вы вводите 10 запросов и хотите чтоб они разбились на 2 группы. А на деле они разбиваются на 4. Как и, главное, зачем они должны биться на 2?
Перепроверил ваши запросы, действительно слабенько. Но дело не в частотности. Суть примерно в том, что когда в одной группе более определенного количества слов, то последующие слова добавляются в группу по слишком жестким критериям. Из-за чего в вашем случае "сапоги скетчерс", "скетчерс купить", "skechers купить" объединились, а вот "сапоги skechers" уже "не влезли" в группу. То есть, дело не в транслите вовсе.
Большое спасибо за пример, он мне очень поможет.
Алгоритм пока не обучаем, пока обучаюсь лишь я:)
Над этим вопросом я тоже очень долго заморачивался:) Не знаю, каким должно быть правильное решение, и есть ли оно вообще. Но у меня они объединяются. Я рассуждал так: раз уж 2 пересекается и с 1 и с 3, то оч мала вероятность того, что 1 и 3 окажутся взаимовытесняющими. Мои личные проверки показали, что это более-менее разумно.
Разумеется, в этой логике есть косяки. Примерно по этой причине сер4ер посчитал скрипт уг
Если вы предложите какой либо альтернативный способ, как поступать в подобных случаях - с удовольствием поэкспериментирую.
Техническое ограничение - топ100. Топ10 - это наиболее приемлемый и достаточный способ объединения. Экспериментировал с топ20 и 50 - преимуществ не увидел, а сложность работы возрастает значительно. Хотя burunduk в этом вопросе со мной наверняка не согласится:)
Дико извиняюсь, в скрипте была очень глупая ошибка, из-за которой некорректно домены обрабатывались. Теперь исправил.
Если обнаружите некорректные результаты - сообщайте в ЛС плиз.