На форуме уже сотни раз говорилось, что Яндекс.Бар показывает взвешенный индекс цитирования (ВИЦ), что совершенно не равно ИЦ (CY). Это не раздел "Любые вопросы от новичков", поэтому прошу термины употреблять корректно. Читайте старые сообщения форума, в них много интересного.
Что касается зеркал, позавчера один из моих сайтов тоже был слит с зеркалом, и ИЦ уменьшился до 0. Вот что мне ответили в Яндексе:
С уважением,
Александр Садовский.
Нужно не забыть про robots.txt, иначе Google сам по ссылкам найдет русскую версию сайта (?lang=rus) и, обнаружив дублирование, еще неизвестно, какую из версий он выбросит из индекса.
Интересные цитаты с форума Turtle со слов Д.Крюкова:
Цитата 1:
Цитата 2:
Спорный вопрос. Если бы не было оптимизаторов, все страницы были бы однородны -- естественный текст. После работы контор остается группа сайтов, у которых характеристики текста (и других элементов, принимаемых во внимание -- заголовков, ссылок и т.д.) далеки от естественных. Можно, конечно, не обращать внимание на данный факт, но среди оптимизированных сайтов есть весьма достойные. В итоге, как только поисковики придают больший вес факторам, которые "поднимают" естественный текст в результатах -- страдают оптимизированные сайты; как только снижают роль таких факторов -- страдают обычные сайты.
Поэтому я считаю, что оптимизаторы помогают только слабым поисковикам, а те, что сильны в алгоритмах, справятся и без них.
С одной стороны, аргументы "Агавы" кажутся справедливыми -- потенциальным клиентам действительно интересно знать, с кем вы успешно работали. С другой стороны, мотивы Яндекса обоснованы гораздо лучше -- если список партнеров постоянно меняется (а не расширяется), значит, информация предназначена, прежде всего, для роботов. Вам невыгодно приводить список старых клиентов -- как только вы убрали ссылки на их сайты, у них исчезли достойные позиции в поисковиках. Более того, нормальный список партнеров включал бы одну ссылку на сайт компании-клиента (а не 5-7), и, скорее всего, с названием фирмы, а не ключевыми словами -- это лишний раз подтверждает, что ссылки предназначены для роботов.
Это уже обсуждалось на форуме, там же есть ссылки о том, как написать простой поиск на PHP.
Nielsen//NetRatings предоставляет данные за май. У него же есть свежие данные за неделю -- сейчас доступна информация за первую неделю июля. Похоже, что посещаемость Google не только не уменьшилась, а даже выросла, поэтому о снижении трафика можно говорить лишь в конкретных областях, на которые лето действует сильнее.
Больше всего в известных мне программах (в т.ч. WebTrends) не хватает возможности самому выбирать, какой тип фильтрации я намерен делать:
В WebTrends есть только первый тип фильтрации, а для рефереров и входных страниц -- второй. Для чего нужно иметь выбор, думаю, понятно. Например, если я хочу оценить частоту возвратов на сайт посетителей, которые впервые попали на сайт с рекламных площадок A и Б, то понадобиться третий тип фильтрации. Если важно оценить, какой процент посетителей, пользовавшихся поиском, сделал заказ, нужен фильтр второго типа. И т.д. Позволяет ли хоть одна программа делать такое?
В WT нет возможности задавать фильтры по ключевым фразам с поисковиков. Обойти это, конечно, можно, добавив фильтр, который отберет пользователей, пришедших по нужным реферерам с Яндекса, Рамблера и т.д., но это очень хлопотно.
WT не позволяет строит сравнительные графики для той или иной группы пользователей. Скажем, график входящего трафика с поисковиков будет полезен для отслеживания ситуации -- если он резко пошел вниз, значит, что-то не в порядке. Посещаемость сайта может не показать проблемы, если падение трафика с одного источника уравновесится возрастанием трафика из других мест.
Еще небольшой минус -- в WT нельзя задать единый список роботов, чтобы их хиты не учитывались в общей статистике -- приходится самому создавать фильтры, что довольно неудобно.
Мне нравятся графики, которые строят хорошие программы, поэтому я не стал писать свой анализатор логов. Но мне пришлось написать программу, которая делает из логов выборку данных по нужным мне критериям, и уже эту информацию я скармливаю WebTrends или другим анализаторам. Но, может есть инструмент, который умеет делать все вышеперечисленное? Буду рад узнать про него.
Пунто -- небольшой полнотекстовый индексирующий русскоязычный поисковик. Посещаемость у него, по сравнению с Яндексом или Рамблером, очень скромная, и трафика ждать оттуда не стоит.
А вообще он уже обсуждался на этом форуме.
В подавляющем большинстве поисковиков результат будет идентичным в обоих случаях. Знак дефиса поисковики воспринимают как разделитель слов, что уже обсуждалось на форуме.