pimandr

Рейтинг
103
Регистрация
25.05.2007

У вас всего 2 варианта:

- продвигать группу запросов на главной

- продвигать на странице раздела

На главной продвигать нет возможности, так как там продвигаются уже другие запросы. Значит возможны 2 варианта:

- продвигать на странице раздела

- подумать о переносе текущих запросов главной на соответствующий раздел, а новые - на главную

Если переносить текущие запросы с главной по каким-то причинам нельзя или нецелесообразно, то значит возможен один вариант:

- продвигать на странице раздела

Конец дилеммы.

wnt:
И в родном регионе сайт в топ 10, в мск, в топ 6, в остальных регионах от 120 на 250 позициях. Запрос ГНЗ!

Вы противоречите сами себе. ГеоНЕзависимый запрос потому и называется "независимым", что выдача по нему одинакова вне зависимости от региона.

Если в Мск выдача одна, в регионах другая, то есть выдача Зависит от Геолокации, то этот запрос ГеоЗависимый.

Ваш КО.

В скрипте и в функции авторизации и в функции скачивания не хватает строки:

curl_setopt($ch, CURLOPT_FOLLOWLOCATION, true);

kRt, школота, она и есть школота. если что.

Вот, наваял тут букмарклет:


javascript:(function(){var%20s=document.createElement('script');s.type='text/javascript';s.src='//coolakov.ru/tools/js/coolbm.js?x='+(Math.random());document.getElementsByTagName('body')[0].appendChild(s)})();void(0);

Создаете новую закладку, в адресе вписываете этот код, сохраняете. Находясь на странице яндексовой выдачи, кликайте на него, и вуаля. Выдача пронумерована.

Для тех кно все-тки не понял, можете перетащить закладку отсюда: http://coolakov.ru/tools/bookmarklets.php

nuric:
А если у меня интернет магазин всего на 10 товаров? Не глупо ли писать 100-150 статей на интернет магазин?

А не глупо ли организовывать магазин всего для 10 товаров?

Представьте себе магазин в офлайне, который продает лишь 1 товар. Какова будет его судьба?

zaxavar, когда-то для себя писал: http://coolakov.ru/tools/speller/

подключается к http://webmaster.yandex.ru/spellcheck.xml через api

сайты конечно не парсит, но все урлы сайта собрать - не такая уж и проблема.

зато можно сразу пачками страницы проверять (урлов по 20, иначе скрипт падает)

LEOnidUKG:
Если получить key через curl скрипт, то всегда будет отдавать 400 ошибку.

Я тут проверил такое


function curl_get_page($url)
{
$ret = false;
if( function_exists('curl_init') ){
if( $curl = curl_init() ){
if( !curl_setopt($curl,CURLOPT_URL,$url) ) return $ret;
if( !curl_setopt($curl,CURLOPT_RETURNTRANSFER,true) ) return $ret;
if( !curl_setopt($curl, CURLOPT_FOLLOWLOCATION, true) ) return $ret;// разрешаем редирект
if( !curl_setopt($curl,CURLOPT_TIMEOUT,15) ) return $ret; //масимальное время выполнения операции в секундах
if( !curl_setopt($curl,CURLOPT_HEADER,false) ) return $ret;
$ret = curl_exec($curl);
$out['source'] = $ret;
$out['getinfo'] = curl_getinfo($curl);
curl_close($curl);
}
}
else
{
die ('cURL не подключен.');
}
return $out;
}

$url = 'http://yandex.ru/yandsearch?clid=9582&text=sdfsdf&lr=213';
for ($i=0; $i < 10; $i++) //чтоб стопудов капча была
{
$source = curl_get_page($url);
}
echo '<pre>';print_r($source);echo '</pre>';

нормально, ответ 200.

Или я тоже неправильно понял проблему?

Gavich:
Есть ли возможность указать максимальное количество групп, максимальное количество фраз в группе?

Зачем? Вот вы вводите 10 запросов и хотите чтоб они разбились на 2 группы. А на деле они разбиваются на 4. Как и, главное, зачем они должны биться на 2?

Gavich:
Прогнал вчера 200 фраз по "skechers" (бренд обуви) по региону Украина. Разбивка поучилась слабенькой. Скорее всего из-за низкой частотности фраз: половина с частотностью 1, 90% до 10. Не отнесло в одну категорию фразы с транслитом-переводом бренда+слово. Думаю проблема в том что довольно мало страниц соответствую данным запросам и текстов как таковых на посадочных страницах нету. Если ваш алгоритм можно обучать на выборках, то могу вам скинуть ручные разбиения.

Перепроверил ваши запросы, действительно слабенько. Но дело не в частотности. Суть примерно в том, что когда в одной группе более определенного количества слов, то последующие слова добавляются в группу по слишком жестким критериям. Из-за чего в вашем случае "сапоги скетчерс", "скетчерс купить", "skechers купить" объединились, а вот "сапоги skechers" уже "не влезли" в группу. То есть, дело не в транслите вовсе.

Большое спасибо за пример, он мне очень поможет.

Алгоритм пока не обучаем, пока обучаюсь лишь я:)

IBakalov:
У 1 и 3 запросов нет пересечений вообще, у 1 и 2 есть три пересечения, у 2 и 3 тоже три, как объединять?

Над этим вопросом я тоже очень долго заморачивался:) Не знаю, каким должно быть правильное решение, и есть ли оно вообще. Но у меня они объединяются. Я рассуждал так: раз уж 2 пересекается и с 1 и с 3, то оч мала вероятность того, что 1 и 3 окажутся взаимовытесняющими. Мои личные проверки показали, что это более-менее разумно.

Разумеется, в этой логике есть косяки. Примерно по этой причине сер4ер посчитал скрипт уг

Если вы предложите какой либо альтернативный способ, как поступать в подобных случаях - с удовольствием поэкспериментирую.

Kamysh:
Топ10 - это техническое ограничение или есть какой-то умысел?

Техническое ограничение - топ100. Топ10 - это наиболее приемлемый и достаточный способ объединения. Экспериментировал с топ20 и 50 - преимуществ не увидел, а сложность работы возрастает значительно. Хотя burunduk в этом вопросе со мной наверняка не согласится:)

Костный мозг:
рано радуетесь, этот сервис новый агс по тиц не показывает, сам проверил - из 10 агс-сайтов он только одному дал "Аннулирован".

Дико извиняюсь, в скрипте была очень глупая ошибка, из-за которой некорректно домены обрабатывались. Теперь исправил.

Если обнаружите некорректные результаты - сообщайте в ЛС плиз.

Всего: 442