Учитывать слабо или сильно нельзя. Фраза вообще построена неверно.
Либо учитывается, либо не учитывается, либо учитывается частично.
Слабо/сильно - это фактор влиянения на ранжирование.
Гугл, Рамблер и Яндекс keywords-ы игнорируют, без всякого рода ссылок на примерно натянутые утверждения, которых впомине нет.
Это просто смешно.
Я ставлю их для того, чтобы самому ориентироваться на страницах, для меня они несут лишь прикладную функцию.
Тогда это еще бесполезнее, чем я думал.
Ну хорошо, пускай будет облако. Но так или иначе здесь два момента.
1) Создание описанного облака далеко не исчерпывает технический аспект внутренней оптимизации, а значит все остальное придется делать вручную.
2) Как бы не было привлекательно ваше облако в ваших объяснениях, шанс нарваться на санкцию Яндекса есть вполне вероятный.
Вы не старайтесь поддеть мое профессиональное самолюбие, заметьте, упрекнуть вас в вашей некомпетенции я даже не пытаюсь. График "вниз" график "вверх" - это ни о чем. Факторов - миллион. Заниматься аналитикой вашего трафика я желанием не горю, я говорил о том, что если вы сможете наглядно представить свои аналитические выкладыки, тогда да, это интересно, а так в каждом емком проекте можно копаться бесконечно и в результате, я уверен, 90% вашего вероятно успеха будет вряд ли связан с использованием вашего скрипта. Я тоже могу представить статистику, которая шагает круто вверх и что?
Я веду городской портал, у которого десятки целевых страниц, нацеленный на сбор трафика информационно-справочного характера. Что вам даст мой ответ?
Метакейворды для ныненшнего SEO - это вообще рудименты прошлого. Я их не использую и уверен, что большинство оптимизаторов тоже. Что касается исправления кода, то оптимизатор должен создавать и организовывать релевантный контент. HTracer все равно в должной мере этого делать не будет.
Любое серьезное дело требует времени.
А причем тут мои скрипты? :) Мы, вроде, ничего и не сравнивали..
Плох тот оптимизатор, который не имеет представления о PHP.
Правильно заметили. Чаще всего это и приходится делать. Но, извините, это неотъемлимая часть работы оптимизатора. Без изучения (хотя бы на уровне структурной организации) клиентских движков оптимизатор далеко не уедет.
Работа со служебными полями TITLE, DESCRIPTION, KEYWORDS (последний потерял свое функциональное значение), это лишь незначительная часть общей работы по оптимизации.
Кроме того, нужно понимать вот что.. формирование бесконечного длинного хвоста из ключевых слов TITLE - это моветон. Как пользователь, я стараюсь избегать таких страниц при просмотрах, потому что есть большой процент вероятности нарваться на разного рода доргены с бредотекстом.
А после DESCRIPTION - это вообще опорный для многих пользователей текст и его нужно обдуманно формулировать, чтобы он был презентабельным и читаемым. Доверить эту работу HTracer - сомнительно.
Есть довольно заметная часть пустых, тематически некоррелирующих запросов. Нагонять в TITLE эти форумлировки далеко невсегда нужно.
Облако, даже если оно имеет место быть, должно быть элементом дружественной для пользователя навигации и должно предлагать осмысленные переходы на целевые страницы сайта. Осмысленные переходы - это в любом случае ручная работа проектировщика сайта и оптимизатора.
И разбирайтесь где у меня как было и что из этого получилось - как хотите? :)
50 страниц чего именно? 50 целевых релевантных страниц по которым идет трафик?
Опять такие странная фраза "внутренняя оптимизация проходит через изменение php кода" - и что?
Да, что-то приходится менять, но я не вижу в этом никаких архисложностей.
Возможно, я вас не совсем правильно понял.
А сколько текстового мусора он нагенерит в связи с этими случайными формулировками запросов и сколько вручную придется править?
Отнюдь. У нас Серафимом нет никакой надуманной родственности взглядов, как можно заметить по переписке у нас достаточно расхождений в понимании и методологии своих SEO подходов.
Просто элементарно на облаке тегов я собаку съел, когда сайт уходил в бан Яндекса за "использование SEO манипуляций" и после сноса облака тегов - сайт возвращали в индекс.
Не знаю, какой опыт у Серафима. Но случаев, когда Яндекс выдавал по банану сайтам с облаками тегов на форуме достаточно.
Понимаете, формулировки ссылок, которые будут в облаке тегов в виду их SEO ориентированности будут мало походить на дружественную для пользователей навигацию. И поисковик абсолютно будет прав, когда вот за такие вот награмождений забанит нахрен сайт, не смотря ни на какую претензиозность в ВЕБ 2.0. Я абсолютно уверен, что релеваность страницы должна складываться и емкой, содержательно стороны конкретного веб документа. А все это подтосовывание статического веса, благодаря муссированому генерированию наработанных SEO перелинковок - это что-то из области дорвейстроительства.
anthony_ добавил 24.06.2010 в 01:32
Таки-да, разумный довод. Если уважаемый автор скрипта представит проект, где наглядно продемонстировано что представлял собой исходный сайт (с выкладкой по посещаемости) и какие результаты были достигнуты благодаря использыванию скрипта, вот тогда да.. для меня это достаточный аргумент для того, чтобы углубиться в понимании серьезной эффективности этого инструмента.
Пока это все теоретические "рассуждалки", как бы хорошо программно охватить актуальный перечень запросов на сайте и поднять посещаемость. Да, с этих "рассуждалок" все и начинается, это нормально. Но мне и Серафиму интересна именно доказательная его полезность.
У меня было пару случаев, когда вылезала страница по НПС только потому, что вебмастер заблудного донор сайта просто ошибался в названии домена. Но это, скажем, случайность (хотя для понимании ситуации принять к сведению полезно). А также масса примеров, когда "несговорчивые" клиенты говорили нашим менеджерам, - "А нам ничего не нужно, у нас и так сайт хорошо в Яндексе "виден", хотя никаким продвижением мы не занимались.." менеджер задает вопрос "как так?" - мне..
Я отчетливо вижу, страница выходит благодаря текстовой составляющей, региональности и малой конкуренции, хотя по всем остальных показателям сайт нулевый. Вот пример случайного трафика "на удачу". Хотя слово "случайный" здесь неочень удачное.
Я не спорю с этим.. Стас, вы просто сказали, что НЧ будет много.
Будет много или не будет _много_ - опять-таки частный, конкретный случай.
Никаких фантазии. Опыт и подтвержденные результирующие выводы ежедневной практики. Впрочем, не настаиваю на истинности. Углубляясь в эту полярность мнений мы просто выйдем на противостоянние рассуждений когда, кто-то эффективно использует сапу (т.е. я имею ввиду вас) и того, кто от сапы уже год как отказался и в разы повысил результативность своих SEO наработок (это я нескромно про себя). Поэтому предлагаю даже не начинать эту полемику (по крайне мере не в этой теме).
Отдельно выскажусь по поводу "ссылки должны быть с нормальным ресурсов".
Нормальные сайты с сапой - это некое весьма условное представление оптимизаторов о должной технической особенности сайтов и некоторых их SEO показателей.
Если сайт торгует ссылками и выводит их блочных образом (коих в сапе % стремящий к 100) - это сайты, использующие поисковый спам. Я для себя уже убедился, какую эффективную полезность приносят доноры с сапой и доноры - вообще без бирж и прочей SEO шелухи.
На самом деле, согласен, с Serafim вы хотите как-то невнятно автоматизировать процесс продвижения cайта по заблудных НЧ запросам. Уверен, по большей части работу по оптимизации доп. запросов должен вести сам оптимизатор с учетом готовой структуры, семантики запросов и в конце концов юзабилитии, а что там скрипт нагенерирует на радостях случайного трафика - бог его знает.
Необязательно. Если страница получает трафик по запросу, это значит, что страница релевантна этому запросу. А как она оптимизирована, в каких поисковиках выходит (а может в каких-то нет, а может это результат вообще левого НПС) - отдельная тема. К тому же насколько эффективно эта страница ловит трафик, на каких позициях позиционируются вопросы - вот это уже вопрос оптимизации и целесообразности дальнейших работ в каждом конкретном случае.
Может да.. а может и нет.
На самом деле получится говно сайт под НЧ запросы..
Согласен! Это вообще красная тряпка для санкций Яндекса.
Проще/непроще - это отдельная тема. Ссылки с сапы запросто могут загубить траст и их обилием можно легко просадить ВЧ-ки. Так что сводить к совету - "подкупить ссылочек с нужным анкором на сапе" - я бы не стал.. очень тут много подводных камней.
Отнюдь, геотагретинг - первичный постпроцессинг, по геозависимым запросам, очевидно, местные сайты стали стеснять столичных монстров. Разница в объеме ссылочного колоссальная. Так что внешние факторы дааалеко не все теперь решают (что, кстати, и правильно).
Тоже не соглашусь. Во-первых, PR влияет на ранжирование в Гугле, во-вторых, статический вес, который _больше_ передает сквозняк также участвует в ранжировании уже Яндекса.
Другое дело сквозники стали непопулярны ввиду своей дороговизны, поэтому они как-то неочень популярные в массовом обиходе у SEO-шников. Я вот их тоже не беру, потому как невыгодно.
Стараемся держать марку! ;) Спасибо за отзыв.
Продолжаем принимать заказы на написание и размещение.
Всегда, пожалуйста, обращайтесь. Отчет о размещении продублировал вам на почту.
До сих пор кол-во проиндексированных страниц скачет, по позициям особых изменений не вижу.
Какой-то затяжной ап получается.. ждем, выводы пока рано делать.
Конечно. Это очень помогает, когда по запросу релевантна не та страница, которая нужна.