Как человек, серьезно занимающийся поиском, скажу, что я тоже так раньше думал. На практике же, когда не хватает длины запроса, чаще всего оказывается, что поиск ведется неправильно. Я не имею в виду ограничени Google, который позволяет задать только 10 слов в запросе -- этого действительно мало, но 300 символов Яндекса -- более чем достаточно для 99,9% поисковых задач.
С уважением,
Александр Садовский.
На форуме г-н MSA a очень бурно развивал научную дискуссию в стиле профессора Выбегалло. :) Вот результаты его трудов:
Андрей, спасибо за интересную идею! Думаю, ее обязательно надо внедрить.
Я согласен с Андреем, что видимость только улучшится. Если взглянуть на рекламный блок Директа, то в нем есть три сильно отличающихся по оформлению элемента:
Еще товарищ Миллер писал про объем кратковременной памяти в 7+-2. Одно объявление содержит 3 таких "цветовых блока", два объявления -- пять, три объявления -- семь, а четыре -- уже девять. И в примере Андрея уже четко чувствуется, что блок из четырех объявлений воспринимается намного труднее, чем блок из трех.
Алексею: а почему кого-то должно заботить падение CTR объявления без таргетинга? Во-первых, рекламодатель просто сэкономил свои усилия, сделав одно объявление вместо 50. То же самое происходит ежедневно, когда задают "ноутбук" вместо "ноутбук Toshiba" + "ноутбук Sony" и т.д. Во-вторых, всероссийский рекламодатель часто не может предложить столь же хороших условий, как региональный, по срокам/удобству и/или цене. И зачем тогда посетителю смотреть на то, что ему не интересно?
Если же может предложить нормальные условия, то чтобы конкурировать на равных, для него все проблемы сведутся к первому пункту: сделать 50 объявлений вместо одного, то есть ничего невозможного. Но на практике даже это ему не понадобится! Т.к. в "казанском" блоке нет смысла повторно писать в объявлении "Казань", то достаточно будет просто выбрать региональный таргетинг и поставить галочку напротив всех регионов. Вот так и решается проблема с CTR. Просто, правда?!
Я часто сравниваю данные по стоимости посетителя и покупателя из разных источников трафика. Покупатель, пришедший с худшей из используемых рекламных площадок, часто оказывается в 10-15 раз дороже, чем покупатель с лучшей площадки. Это при том, что все площадки в той или иной мере ориентированы на продажу. В случае с RBC и anekdot.ru разница может быть еще больше.
Примечание: речь не идет о всех подряд товарах. Возможно, юмористическая книга будет продаваться на anekdot.ru лучше, чем на RBC.
Я думаю, это связано не с любовью к тому или иному дизайну, а с тем, что "Апорт" заметно отстал в объеме базы и качестве поиска от остальных. То есть на "Апорт" идут те, кто редко пользуется интернетом и прочитали про адрес "aport.ru" в какой-то старой книжке или журнале, либо случайно начали с "Апорта" и оказались весьма консервативны. С одной стороны, такие пользователи менее избалованы рекламой и потому их легче "зацепить", с другой -- они не настолько обеспечены и реже имеют возможность платить в онлайне. В этом, кстати, преимущество и недостаток "Бегуна", у которого по большинству тем "Апорт" является локомотивом.
А ссылочку можно? :)
Эти менее целевые запросы были более частотны, верно? У Google есть понятие daily budget -- ограничение на расход средств. Но Google не знает точно, сколько человек и с каким таргетингом (язык + география) зададут этот запрос сегодня или завтра, он знает только прошлую статистику. Из-за этого расчеты бывают иногда очень неточными. Andrew Goodman пишет, что по одному из запросов при дневном бюджете в $600 он тратил только $40, то есть установив бюджет в желаемое значение ($40), он получил бы расход лишь в $5-6. Поэтому Гудмэн рекомендует первые дни кампании задавать бюджет намного больше, чем требуется.
Скорее всего, в вашем случае произошло именно это: более целевые запросы были менее популярны, и поэтому небольшой дневной бюджет "заблокировал" показ соответствующих объявлений.
Сейчас основная выдача по данному запросу абсолютно нормальная. Или имелось в виду что-то другое?
Почему же? Все, что уменьшает путаницу, хорошо.
Есть и мелкие бонусы -- что может быть приятней для саппорта, чем отписать нерадивому веб-мастеру: "нечего на mirror.txt пенять, коли руки кривые". :)
Простой пример. Был у меня сайт на бесплатном хостинге, переехал на платный. Вначале Яндекс распознал его как зеркало. Но по мере того, как новый сайт обновлялся и рос, у Яндекса было все меньше уверенности в правильности своих выводов. В результате сейчас он расклеил их снова. Удалять же старый сайт не хочу, потому что на него много ссылок по сети. Поддерживать оба сайта в идентичном состоянии не получается, потому что на бесплатном хостинге нет ни SSI, ни PHP. Что тут делать?
Универсальный способ маскировки -- вынести внешние ссылки на одну страницу, которую запретить в robots.txt.
Кстати, интересный вопрос, который, возможно, даст решение проблемы. Если все внешние ссылки оформлять как редирект типа www.site.ru/link/1, www.site.ru/link/2 и т.д., а в robots.txt запретить /link/, что произойдет?
а) поисковик увидит ссылку, и, не пытаясь получить по ней доступ, выкинет ее из очереди на индексацию;
б) поисковик попытается получить доступ к странице и обнаружит, что это внешняя ссылка, и станет ее учитывать.
Более логично поведение согласно п."а" -- если сказано, что нельзя, зачем пытаться? Если это не так (что подтверждается практикой), то кто мешает основных роботов обнаруживать по user-agent и выдавать им ошибку 403? Все это можно сделать на уровне mod_rewrite.