Да 50 страниц на которые идет трафик (лендинг-пейджов).
Т.е. вы согласны, что внутр. оптимизация, когда страниц много происходит, через автоматические методы. Причем эти методы будут детерминантными (обобщенные правила), которые во многих конкретных случаях будут не оптимальными и менее гибкими. HTracer же использует информацию о переходах, что позволяет ему гибко подстраиваться под каждую страницу. Допустим, вы хороший программист и потратили 2-3 дня на составление/редактирование кода с целью оптимизации. (в реальности оптимизатор в среднем программист не очень хороший (это же не основная его профессия) и тратит намного меньше времени на исправления кода клиентского сайта). Но даже в нашем очень хорошем случае, оптимизатор-программист не сможет учесть всех тонкостей. Например, он создал правило добавлять в метакейвордс "отель X, гостиница X" (X - название), для каждого поста в рубрике "гостиницы", однако вебмастер добавил пару санаториев и баз отдыха и это правило оказалось не универсальным.
Во-первых, вопрос времени.
Во-вторых, HTracer оптимизирует лучше, чем ваш скрипт, если, конечно вы не потратите на него пару недель.
В-третьих, оптимизатор, может и не знать PHP.
В-четвертых, у клиентов, обычно, разные движки, и большую часть времени вам придется изучать движок, его архитектуру.
Ничего править не придется. HTracer не генерит текст, это не дорген. Он прописывает альты, титлы и метакейвордс. Причем, чем больше переходов по ключу тем более вероятно, что он пропишется в титлах и альтах. В метакевордс и в облаках и блоках внутренних не прописываются редкие ключи. А ошибочных наборов намного меньше, чем правильных. Поисковики исправляют грамматические ошибки. Поэтому вероятность того, что пользователь увидеть неправильное написание крайне мало. Скорей он увидит грамматические ошибки на сайте в самих текстах, к которым HTracer не имеет отношения.
Если вы почему-то боитесь использовать облака, то облако можно превратить в простой блок ссылок произвольного вида. Если выдавать вместо облака тегов, ссылки на результаты поиска, то действительно можно получить банан. Результаты поиска должны быть скрыты от индексации по правилам Яши. Банят не за облако, а за любой блок ссылок на страницы поиска по сайту (к поисковым страницам нужно причислить и комбинации нескольких тегов). Это не имеет никакого отношения к теме. Семантическое облако намного меньше похоже, чем облако тегов, но это спамное облако, за которое банят, поскольку в половине случаев перекидывает пользователя на страницу конечной записи, а не на страницу-список.
Нет. Смотрите скрин в первом посте. Где вы видите нагромождения!? Если люди ищут что-то и в большом количестве и переходят на ваш сайт. Это говорит о двух вещах. Во-первых людям это интересно. Во-вторых на сайте это есть. Чтобы на страницу попал человек с поиска она должна быть выбрана поисковиком, и затем пользователем по снипету, что говорит о том, что страница релеватна не только в алгоритме поисковика, но и в человеческом смысле. Я проверял, по семантическому облаку чаще кликают, чем по облаку ссылок. Причем почти в 1.5 раза.
Серафим,anthony,Str256 В личку пишите мыла на GMAIL, подключу вас к своему аналитиксу.
Hkey добавил 24.06.2010 в 03:06
onigbinde, домен и мыло в личку
Hkey добавил 24.06.2010 в 03:14
3К это немного. Сейчас верстка страницы в среднем занимает 50К. У большинства больших сайтов в навигации намного больше чем 30 ссылок. Даже у очень простенькой стартовой страницы Гугла 33 ссылки (http://www.google.com.ua/), а у Яши (http://www.yandex.ua/) 120.
Обычная ссылка с прописанным титл занимает около 90 символов (с форматированием естественно). В облаке к ссылке добалено еще и style="font-size:XXX%" (16-17) символов, в итоге ссылка занимает 100 символов, а 30 ссылок 3000.
Да, 65 WMZ, но продается либо людям с высокой репой, либо тем с кем я имел дело. Для вас и еще одного человека с репой от 40.000 с условием отзыва 45 WMZ.
Пока нет, но в скором времени организую.
Как вы себе представляете работу оптимизатора начиная с 50 страниц? По вашим репликам понятно, что вы не вели подобные проекты, я прав? Начиная от 50 страниц, внутренняя оптимизация проходит через изменение php кода, поскольку вручную вести ее нереально. Т.е. оптимизация и так частично автоматическая.
Случайный трафик, скрипт может нагенерировать, но его не больше нескольких прооцентов.
Либо я тупой и не понимаю очевидности этого утверждения, либо вы с Серафимом состоите в тайной секте противников облака тегов. Это смешно просто. Вы вдумайтесь что вы пишите Облако тегов для Яндекса красная тряпка. А ничего страшного, что это визитная карточка Веб 2.0? Ничего что на 30% сайтов она есть?!... Я все понял Платон нажрался ЛСД, начал ловить глюки и приказал банить сайты с облаком тегов.
Не факт.
Во-первых, со 2,3,4 страницы выдачи тоже идут переходы.
Во-вторых, поисков несколько и позиции в Рамблере мало что говорят о позициях в Янндексе, Гугл и Майл.ру.
В третьих, страница может быть в выдаче по какому-то из уточнений запроса, а по самому запросу не быть (это почти всегда так).
Например, по запросу: "синхофазитроны купить" - страницы нет в топ50 выдачи. А по запросу "синхофазитроны купить в Москве" есть. Скрипт оптимизирует страницу по второму запросу, что само собой потянет страницу вверх по первому запросу, что в свою очередь внесет корректировку в работу скрипта и он добавит первый ключ в чистом виде на страницу и в ссылки на нее, что потянет этот ключ вверх, что в свою очередь увеличит позиции по нему в поисковиках и увеличит число переходов, что в свою очередь внесет корректировку в работу скрипта и так далее (положительный обратный эффект)... На все эти итерации скрипт потратит 3-4 месяца (в большинстве случаев раньше), но ключ будет в выдаче на нормальных позициях, насколько можно добиться внутренней оптимизацией. Однако вы можете ускорить этот процесс, добавив скрипту ключи.
Каша не получиться. Скрипт расставит альты картинок, титлы ссылок и пропишет метакейвордс и раставит контекстные ссылки. Он ничего с текстом делать не будет на странице. Так что никакой "каши" быть не может даже гипотетически. Пожалуйста, прочитайте описание в первом посте этого топика, чтобы наш спор был более конструктивным.
Обоснуйте. Никогда ничего подобного не слышал и в Гугле не нашел.
Зачем нужен молоток, ведь гораздо проще забивать гвозди плоскогубцами?
Во-первых, вы запросы должны выковырять, если речь идет о нескольких сотнях запросов, то это процесс трудоемкий.
Во-вторых, предположим у Вас 100 страниц в среднем по 5 запросов (500 запросов). Вы за несколько приемов добавляете эту радость в сапу и получаете "проектик" с 500 страницами (сапа не соединяет страницы при добавлении по запросам (проект сапы генерируемый HTracer будет групирует страницы)). Этот "проектик" будет занимать 5-6 экранов и чтобы просмотреть проекты, добавленные ранее, вам нужно будет пролистать. Вроде бы не сложно, но это нужно делать каждый день и это ужасно раздражает (у меня есть такой печальный опыт). Если таких проектов несколько то перестаешь понимать, где начинается один, а где заканчивается второй. Работать вручную с этим проектом не реально, поэтому Вы поставите автофильтры, которые раздупляться через 3-4 месяца (страниц много и быстро наращивать ссылочную масу стремно), к этому времени, HTracer уже 5-6 раз успеет все оптимизировать.
В-третьих, сапа требует деньги каждый месяц. В расчете на страницу пректа копейки, однако страниц у вас 500. И оптимизация этого проекта будет периодически отнимать у вас время (удалить ссылки у которых упал PR и тИЦ) подтвердить повышение цен. Сапа, в отличии от HTracer, не работает в режиме включил и забыл.
Примечание, 5 запросов на страницу это оптимистичная цифра. Если учесть не только уточнения но и вариации запросов их будет больше. Обычно даже для двухсловных запросов существует 4-5 вариаций. Например, "музеи одесса","музеи одессы","музеи в одессе", "одесса музеи". Если стата не клеит вариации, то страниц у вас будет не 500, а пару тысяч. Если стата клеит вариации, то вы не слишком рационально потратите ресурсы, поскольку нужно прокачивать не только запрос, но и его вариации.
Сапа не предназначена для оптимизации по куче НЧ, хотя, в принципе, со скрипом, может их выполнять.
Во-первых, не текста, а внутренних ссылок.
Во-вторых, навигация на сайте это сквозные не уникальные блоки внутренних ссылок.
В-третьих, вы можете сделать облако "условно рандомным" (которое при F5 не мигает но уникально для каждой страницы).
На все. Облака можно сделать одинаковыми для всех страниц или частично условно случайными.
Нет исключительно все на вашем. По понятным причинам, я не буду вдаваться в подробности.
P.S. Двум господам с репой от 40 тыс. дам лицензии за отзыв.
<script>
var ExArr= new array('текст1','текст2','текст3');
</script>
А обрабытаваеться этот массив в подключаемых файлах.
А где теперь беки мы будем смотреть?
Вышла первая версия.
Пока продается только анлимитная по доменам лицензия (привязку я пока не организовал).
Цена пока 65 вмз
Первым трем господам (или дамам) с репой выше моей продам по 45 вмз с условием отзыва (не обязательно положительного).
20-30 вмз за лицензию на один домен.
Прикупить можно будет через неделю, когда тестирование закончится.