SandyMan

SandyMan
Рейтинг
129
Регистрация
13.06.2004
Должность
web developer, seo, web analytics
Интересы
web development, ham radio, аквариум
MagOfSeo:
Добрый день.
Есть небольшая проблема, на сайте есть основные страницы и страницы с аякса, которые полностью дублируют содержание основных. Попытался закрыть их через robots.txt и <meta name="robots" content="noindex, nofollow"/> но результатов никаких!
Может есть какая то специфика по их закрытию. Буду благодарен за любой совет.

Загружать всю страницу в обработчике неправильно с точки зрения программирования и производительности.

Нужно вынести скрипт запрашиваемый через AJAX на отдельный URL.

Например сделать для таких скриптов директорию, и её закрывать через роботс:

site.com/ajax/script1.php

site.com/ajax/script2.php

site.com/ajax/script3.php

Хочу ещё обрадовать: firefox в скором времени переведёт встроенный поиск в гугле на SSL.

Так что, процент "not provided" будет ещё больше.

http://www.searchenginejournal.com/firefox-default-encryption-google/41791/

RedMirage:
Как бороться с not_provided здесь http://netpeak.ua/blog/not_provided/ В сообщении ссылки на первоисточник есть.

ну тут не боротся, а типа "с паршивой овцы хоть шерсти клок" :)

Вывод напрашивается один - не стоит покупать ссылки в смутное время, никакие. Лучше подождать с этим, и занятся контентом. А клиент если не дурак, поймёт. У меня кстати, клиент так и говорит - не делай ничего, что может сделать меня миллионером либо оставить без штанов. И я сним согласен.

sergey885:

в крайнем случае, позову SandyMan'а побросать камни в их ближайший офис =)

😂

Кстати, мне думается, скоро данные о ключевиках c https они начнут продавать.

Делали, и продолжают делать, из-за ключевика в домене.

Но я бы лично не стал это делать на молодом сайте, как мне кажется, есть шанс быть уличённым в веб-спаме...

К сожалению нет.

not provided идёт с SERPa работающих под HTTPS (когда юзер залогинен в гугле), соответственно и ваш сервер не получает в referer ниакаких данных. Т.к. по протоколу HTTPS referer запрещён.

Хотя иногда всё же гугл делает редирект на требуемый сайт через HTTP и сохраняет referer. По крайней мере иногда я вижу в рефере ключевик. В общем, на 100% полагаться на referer с гугля нельзя.

Кстати, по умолчанию referer не записывается в логах апаче. Надо настраивать его для этого

Ещё раз: поисковик относится к сабдоменам как к разным сайтам, соответственно и продвигать их надо отдельно, а это более затратно.

soft4you2:


1. почему некоторым все таки помогает 301. зависит от количества говноссылок? в гугле уа если попробовать запрос "продвижение сайтов" - пожалуйста примеры.

я думаю, что это кажется, что помогает. Со временем возникнет ситуация как у ТС

soft4you2:

2. если я делаю новый сайт (ну не делаю, а закрываю прежний домен), то как мне, черт побери, обойти песочницу. поделитесь пожалуйста кто-нибудь. можно в личку) "плавно набирать ссылки" - это все-таки насколько плавно? 1 в месяц, да, и та еще наверное безанкорная. 😡

Как говорил Остап Бендер: "Быстро только кошки рождаются". Не торопите события с выходом из песка, со временем сайт "откроется". Делайте сайт нормальный, старайтесь создавать естественные линки. Не покупайте в первое время ссылки вообще.

Кстати, я за 10 лет SEO не купил ни одной ссылки! Давным давно, как стали появляться всякие "сапы", нутром чуял, что ничего хорошего в конце концов с этого не будет.

Преимущества работать по второй схеме есть только тогда, когда есть необходимость разделить контент сайта на категории как правило не связанные между собой (при этом и категория и её продукты должны быть под одним сабдоменом), и при этом быть под одним брендом. Например, если сайт продаёт машины и парфюмерию, то стоит сделать для них два отдельных сабдомена. Пример этого ebay.

Поисковик относится к сабдоменам как к разным сайтам, соответственно и продвигать их надо отдельно.

В вашем случае, для продуктов определённой категории делайте по первой схеме.

Всего: 429