Уважаемые разработчики, порекомендуйте, пожалуйста сайт, курс, человека или любое другое, что поможет разобраться в анализе данных, получаемых через Key Collector.
А то ключей напарсил много, а что с ними делать не всегда понятно.
В частности интересует, как анализировать данные медианы частотности?
Comrade_Comm, sorry, не хочу флудить в вашем топике, но вопрос рассмешил.
Savanna2009, почему вы решили, что это ошибка?
У вас просто тема не переведена на русский язык.
wturm, спасибо.
Antowa, вы уверены, что для траста в поисковых системах лучше делать на сайте папки, а не поддомены? Я всегда думал, что наоборот.
Категории верхнего уровня на сайте - это должны быть не просто категории, а огромные подразделы, типа сайт в сайте.
И эти внутренние сайты сами будут содержать несколько категорий, вот так:
news.site.ru/mir/kultura/theatr/statya.html
news.site.ru/rossia/kultura/theatr/statya.html
news.site.ru/yaroslavl/kultura/theatr/statya.html
Поэтому очень нужна именно такая структура.
Вот! Именно так мне и нужно.
А ставить 20 копий движка на один сайт это, в какой то степени, тоже извращение.
А уж по деньгам, так точно.
Вопрос по прежнему актуален: как сделать такие адреса news.site.ru категориям верхнего уровня?
Приятно видеть такое единодушие - это значит CMS действительно хорошая.
А возможно ли на ней сделать адреса категорий 1го уровня (т.е. родительских категорий) вида http://news.sait.ru?
Чтобы адрес категории выглядел, как поддомен?
А адреса подкатегорий были такие - http://news.sait.ru/kultura, http://news.sait.ru/politika и, соответственно адреса статей были такими - http://news.sait.ru/politika/название_статьи
Если возможно, то как?
Я только пару дней, как установил DLE, еще не разобрался.
dcmmm, спасибо.
Не уверен, что у меня руки из правильного места, но буду стараться.
Есть еще отзывы о DLE?
Нет, не поддерживает.
Вообще то я собирался новости переписывать, чтобы были уникальные.
balueff, покупать контент могут себе позволить уже раскрученные сайты, а не новые.
Задача стояла сделать белый сайт, поэтому нужно официальное разрешение сайта донора на публикацию их статей на других сайтах.
Проблема еще в том, что нужны не просто статьи, а статьи с большими качественными фотографиями. А новостные сайты с хорошими фото и так сложно найти, а уж такие, которые не запрещают использовать свой контент и подавно.
juniorspecialistphp, спасибо за попытку помочь.
Только этот плагин берет статьи из RSS и, чтобы получить требуемые статьи, нужно самому найти сайты с RSS для парсинга.
А мне нужно, чтобы парсер самостоятельно искал статьи по ключевым словам либо в поисковиках либо просто в интернете.
Требуемая статья может быть опубликована на сайте посторонней тематики, и тогда нет смысла парсить весь сайт. А вручную отбирать сотни сайтов для парсинга - это не дело.
Нужно, чтобы парсер сам их находил, возможно через поисковик.
grunge270 добавил 03.11.2010 в 22:04
Неужели не существует такого парсера?
Подскажите, плиз...