Ну, если верите, что это ссылки для ПС, а не просто текст урлов, то можно поступить очень просто: делаете на сайте сквозняк на сайтмап, а в нём упоминаете только одну страницу, на которую больше не ведёт ни одна ссылка. И посмотреть как ищется. И отпишитесь тогда.
... останется и поймёт, что зря это всё.
Другое дело, что монополисту в долговременном плане выгоднее было бы учитывать многое из того, что не-монополисту не кажется выгодным. Например:
сколько белых и пушистых навсегда перестанут быть таковыми от механических ошибок священных алгоритмов?
сколько можно было бы съэкономить на пиаре своих сервизов, т.е. сколько можно потерять бес/платных пиарщиков, совершая грубые действия (хотя они вам смогли бы очень убедительно объяснить, что действуют правильно).
Это XML-файл с текстами урлов.
http://www.google.com/search?ie=UTF-8&hl=ru&q=inurl:sitemap.xml
Или у вас есть возможность показать, что это именно ссылки записаны так?:
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc> http://www.google.com/ </loc> <priority> 1.000 </priority> </url> <url> <loc> http://www.google.com/3dwh_dmca.html </loc> <priority> 0.5000 </priority> </url> </urlset>
А если просквозить robots.txt ?
Они лучше любых оптимизаторов знают, что от качества поиска (или сайта) меньше всего зависит его популярность, а им нужна именно популярность, а не качество:
И гугл местной морфологии не знает...
А «разумность» результатов — из-за как бы консервативности PageRank (который якобы побеждён безумным матрикснетом, к которому оптимизаторы ещё не успели приспособиться... а это скорее всего возможно, но тоже безумно).
1. В компании уверены, что их выдача становится лучше, в среднем. А то, что отдельные владельцы сайтов возмущаются, ну так не тратить же драгоценное внимание на возмущения этих скорее-всего-спамеров. Опять же, перед IPO не принято раздувать штат, а наоборот, принято всячески его сокращать, дабы показать инвесторам красивый баланс.
2. Участникам фондового рынка не очень важно: хорошая компания или нет, пока это не угрожает их карману.
На PR своих сервисов. Это выгоднее, чем заниматься их реальным улучшением.
И вам остаётся — придумывать мемы.
Ну так, если в индекс ничего не запихивается, то самое время задуматься: а стоит ли на нём чего ещё выкладывать? И по отписке этого не понять. И можно не очень верить в дежурные заверения бота Щукина, что всё наладится, если будете развивать и улучшать для людей.
В них лучше бы не смотреть. Такого траффа не будет. Это не запросы. Но перечень запросов писать не надо.
Но ранжироваться выше — чаще будет точное вхождение запроса.
Эта фраза ну такая самоочевидная, что просто не может не влипнуть в мозг (и более липкие есть).
Измерение уменьшения веса проводили?
А если каждый такой дополнительный нЧ запрос содержит слова «главных продвигаемых»? (это именно вопрос)
Особенно, если именно так — без знаков препинания и без учёта способа отображения в выдаче разными искалками.
Ответ бота.
Вам же чётко и внятно сказано про необходимость наращивания авторитетности :) а то нарвётесь на подвох.
Пока старайтесь быстрее индексить каждую новую страницу... заведитесь на быстро индексируемой социалке с прямыми ссылками, регулярно имитируйте её живость любым бредом и ссылайтесь сразу после выкладывания нового на сайте.
Не зачешутся... пока не увидят, что их искатели (или даже кликатели по директу) от них уходят к конкурентам и не первый месяц (а на это больше влияет не качество поиска).
Они по своим т.н. метрикам видят только общее улучшение, а отдельные нежелательные частности считают допустимыми и якобы проверяют потом:
и на всякий случай никакого конкретного % не названо.
Есть МФА-ТОПы...
... они не рассматривают выдачу отдельно от Директа.
Эт всё игры.XML ... боту одно, посетителю другое... и при этом никакого клоакинга: бот имеет возможность взять тот же контент/шаблоны и выполнить XSLT, но его создателям лень.
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D0%BF%D1%83%D1%81%D1%82%D0%BE%D0%B9
Урл — тоже контент:
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D1%82%D1%80%D0%B0%D1%84%D0%B8%D0%BA
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D0%B8%D0%BD%D0%B4%D0%B5%D0%BA%D1%81&filter=0
http://www.google.com/search?ie=UTF-8&hl=ru&q=site:seo-xslt.narod.ru/DEMO/+%D1%82%D0%B5%D0%BA%D1%81%D1%82&filter=0
осталось только выяснить максимальную длину такого сочинения в урле почти пустой страницы. Может кто уже знает?
Было свободное время, решил поулучшать сайтик, на котором почти художественный текст, и не может быть более 50 уников ... в HTML-коде страниц уже давно было заметное количество document.write /* тогда Гугль туда не лез */ и ссылка на внешний файл.js
Изменил много <h3> на <h3 title="ссылка" class="anwe" id="zagolovok" onClick="wo('#zagolovok')"> и чего-то подобного, вполне безобидного.
спецсимволов много добавил... именились почти все страницы.
через пару месяцев:
в поиске страниц 0
в их ответе — сцылки на их отношение к сео-сцылкам и кликандерам
(с сайта была единственная сцылка во вне, но к тому времени уже вела на «домен продаётся»)
Вот и что они анализируют? Тупо наличие внешних и чего-нибуть.JS в сочетании с обновлением заметной доли страниц? Или это бот обучился как мог на маленькой обучающей выборке?
Сейчас они не всегда присылают ссылки-намёки на «в чём именно подозревается».
когда стал это вспоминать после недавнего вылета более ценного сайта, по прошлогоднему вылету, переписке и возвращению... стало понятно, что:
Это косвенно подтверждено, как бы:
при этом действует не человек, а бот, которому люди лишь задали тенденции... и если вместе с 18-ю дорами попадётся один не-дор, ну ... что ж бывает, им отписку: Если будете развивать и улучшать, мудрые алгоритмы это заметят и со временем...
ВМ и программеры ПС (и их боты) разговаривают на очень разных языках. Пессимизация — не за умысел и не за факт, доступный человеку, а по причине наличия признаков, доступных арифмометру.