Кстати, да. Причем уникального контента!
Приобрел этот десктопный синонимизатор, поскольку ранее ТС сделал для меня именно им тестовую обработку моего текста, понравилось.
Теперь собираюсь прогнать 15 тысяч страниц по ней. Что получится - отпишусь в разделе про Гугол (я там обитаю) со ссылкой на этот топик. Но будет не скоро, когда выясню отношение Гугла к такому "творчеству".
Одним словом, очень интересно попробовать прогу в действии. Цена более, чем разумная; если сработает - окупится буквально за сутки.
Про перелинковку: внутренняя перелинковка страниц на сайте с точки зрения SEO.
Сразу вопрос в лоб: а у Гугла что в этом поле заголовка прописано?
И... зачем? Долго думал, но так и не смог понять: зачем это делается? На мой взгляд, если пользователь набрал русский запрос - то должен попасть на русскоязычную страницу, а если по-английски - то, соответственно, на не-русскую. А если это россиянин, живущий в Китае - какую версию ему отдавать?
У Вас, как всегда, сайт просто прекрасный, тем более - на фоне остальных в этой теме. Расскажите при случае людям своим языком, отчего правильно делать, как Вы, и не правильно, как они. А то уже задолбался по сто раз одно и то же перетирать.
Единственное, что можно и даже НУЖНО улучшить, если хотите в ТОП - это почистить код формы ввода. В частности, убрать оттуда все лишнее в CSS. Дело в том, что контента у Вас немного (кстати, а почему? Хотите в ТОП - значит, пишите контент + заголовки H2...H3 внутри него + хотя бы одну картинку ближе к концу главной страницы), и вес кода не очень хорошо влияет. Поверьте, будет только лучше! А ВЫШЕ нее написать хотя бы абзац, для чего этот калькулятор нужен и что куда вводить (разумеется, обыгрывая ключевые фразы). Это и для пользователей-домохозяек полезно, и поисковики любят, когда контент стоит высоко к началу страницы.
Контент, конечно, слабоват для ТОПа. Посмотрите, что ищут люди по Вашим ключевикам, и эти фразы добавьте хотя бы на главную. В заголовок же ОБЯЗАТЕЛЬНО введите слова "on-line" и "calculations" именно в таком написании: они точно входят в частые запросы, проверял по своим темам. И вообще, TITLE на "морде" какой-то некузявый... вот для Вас хороший вариант: "Online Cooking Calculator - On-line Cooking Calculations - Cookers Conversions from UK to US" (92 символа). В этом варианте "играют" также запросы "Cooking Calculator On-line" и "Calculations [for] Cookers", а они важны по теме сайта. Ну, и число страниц маловато.
Что Вы! Наоборот, похвалит за то, что Вы делаете сайт с учетом его рекомендаций для веб-мастеров. У Вас на самом деле неплохо получается!
P.S. Откроете коммерческую тайну? Интересует, сколько приносят в казну этот сайт, и еще про пересчет температур (по AdSense). Правилами АдСенса это запрещено, но, думаю, никто не узнает. :)
Я бы на Вашем месте посмотрел, в чем, собствено, ошибки. Не 98% же не уникального контента, на самом-то деле?! Почти уверен: кэш у Гугла битком набит Вашими "плохими" страницами; то есть, проблема НЕ устранена.
Подобные штучки скорее мешают, чем помогают. Как и ЛЮБОЙ ЯваСкрипт, впрочем. Мне кажется, причины и выход лучше поискать там же, где и "вход".
Нас интересует, как часто Гугол обновляет содержание в кэше, не так ли? Можно отрицать эту закономерность, но она существует: для страниц в основном индексе он это делает гораздо чаще. Смотрю на многочисленных примерах в теме про аудит сайтов (я ВСЕГДА смотрю содержание кэше, кстати).
Помимо приведенной, есть и ряд других. Возьмем для примера обычный, средненький сайт. Если его страницам не прописать описание DESCRIPTION, или оно или TITLE слишком короткие или не уникальные - то с 90% вероятностью такие страницы улетают в "сопли". Это разве не закономерноть, и не прямое ли указание веб-мастерам, как приводить в порядов свои сайты?
Еще одна закономерность, совсем не очевидная: если у сайта малый процент страниц в основном индексе - то позициии и траффик даже по этим страницам далеки от возможного. Однако стоит элементарно прибить "сопливые" страницы и поудалять их из кэша Гугла - так траффик на "хорошие" начинает чудесным образом расти, да и общий его объем повышается. Хотите сказать, что этим не надо пользоваться?
Про копипаст: Вы в курсе, что ЛЮБАЯ страница вне основного индекса - это потенциальный "донор контента"? То есть, если проверить ее на последнее обновление кэша и убедиться, что она содержит уникальный текст, то, что называется, "бери - не хочу". И никакой Гугл за это не покарает! Другое дело, что нахождение таких халявных доноров трудно и требует навыков.
Еще одна закономерность: по результатам последнего АПа можно утверждать: если страница по всем показателям (расположение на сайте, внешние ссылки) должна была получить PR, а у нее даже не 0, а N/A - то она почти наверняка в "соплях". И ни ПР-ного веса, ни ссылочного, она уже не передает. Хорошо, с "весом" еще можно поспорить: мол, откуда это известно и как докажешь; но с PR'ом-то все очевидно! И крайне легко проверяется. Практически ВСЕ страницы из основного индекса, расположенные аналогично, получают PR, и при этом НИ ОДНА из "сопливых" его не получает. Это выполняется с 90% точностью. Отрицать, что это закономерность... можно, конечно, но будет выглядеть как-то нелепо. Потому, что проверяется легко.
Это не соответствует действительности: не любая; и, скорее, не "лечится", а "сбиваются симптомы". Кроме того, этот способ никак нельзя рекомендовать для SEO: мы же говорим о том, как сделать хорошо, а не о том, как нивелировать влияние допушенных косяков и ляпсусов. И потом: редко, когда пробленая страница бывает одна; как правило, их целый выводок типа тысяч страниц с товарами в Интернет-магазинах. Ставить по 10...20 ссылок на все, или через одну? :) А не проще ли, не пуская деньги на ветер, найти причину их неполноценности и ее устранить? Тем более, что она обычно лежит на поверхности.
Прежде, чем ставить ссылки на "убитые" страницы, их надо вытащить в основной индекс. А для этого НЕОБХОДИМО сравнить их с хорошими и найти, что называется, "десять отличий". Инструмент для этого - анализ разницы выдачи site:site.com и site:site.com/*. И мне не составит труда показать на практике, как это работает. А вот найти опровержение будет проблемно; разве, что ->
В случае таких "примеров" я говорю следующее: в чем проблема? Создавайте свою Википедию или CNN, пишите на них поганые страницы - и они тоже будут собирать траффик. Каких-нибудь десять лет труда бригады журналюг-копирайтеров и редакторов, полмиллиона естественных внешних ссылок - и вуаля! - золотой ключик в кармане! Кстати, ЛЮБАЯ страница того же RIAN прекрасно выдавливается из ТОПа даже копией с нее на узко-тематическом и достаточно авторитетном в этой области сайте. А при удачном раскладе - например, когда публикуется серия новостей, - она даже отправляется в "сопли" и ПЕРЕСТАЕТ быть в выдаче на первых десяти страницах Гугла. Соответственно, и траф с нее становится нулевым. Я такой "финт ушами" активно использую для продвижения по региональным новостным запросам.
P.S. Я знаю еще две отличные темы для холивара: влияние PR на ранжирование по запросам и наличие или отсутствие "бонуса новичка"/"песочницы". :)
Не поверите... буржуины, куда сайт ТС'а и адресован, примерно так и ищут! Вот, к примеру: "Cheapest Auto Insurance Quotes", "Lowest Liability Insurance Premiums" (это по моей теме ВЧ-ключевики).
Ну как Вы не поймете... раз так спрашиваете - значит, не сумеете найти подходящего "донора контента", откуда можно сравнительно без последствий утянуть тексты. Да и зная, как искать - все равно занятие (поиск донора) не из простых.
Чем больше окажется таких страниц в Гугле - тем дольше их потом оттуда придется удалять. Так что выбирайте, что Вам больше по душе: быть повешенным или утопленным. :) Ну нет у меня ответа, нет!
Блин, НЕ СЛУШАЙТЕ этого совета! Я сайт человека сознательно на три месяца хотел в аут отправить, чтобы из меня Буратину не делал своим порно-завлекаловом. Нашел тоже, где свое порно-говно-кидалово рекламировать... Окна, открывающиеся без желания пользователя, и закрывающиеся через кнопку "Отправить СМС на короткий номер..." - это самый натуральный обман, причем не какого-то там абстракного посетителя, а меня лично. А с такими у меня разговор короткий.
Если так сделать - то ни из-под какого фильтра не выйдешь, оно и понятно, почему. А вот три месяца сайт не будет индексироваться и исчезнет из выдачи вообще. Потом вернется, но с теми же пессимизациями.