Один ап уже прошел (вчера, 05.06). Ничего не изменилось...---------- Добавлено 06.06.2012 в 17:35 ----------
Небыло переспама. даже если где то и был - они за переспам выкидывают отдельные страницы но не целый портал же...---------- Добавлено 06.06.2012 в 17:36 ----------
Там где стояли на первых страницах - упали на 4-5. По тысячам запросов...
Какие шашлыки? )) В один день в 10 раз меньше стало трафа. С 5500 в сутки до 400!
Аргументы такие
Первый вариант:
Преимущества:
Линейная структура каталога, т.е. основной раздел и подразделы. подразделы подтягивают основной раздел.
Возможные недостатки: страницы 3-го уровня вложенности (URL) имеют низкий приоритет
Второй вариант:
Страницы имеют урлы 2-го уровня вложенности, и каждая из них получит больший приоритет в поиске.
Возможные недостатки:
Страницы будут конкурировать по основному запросу с основной.
И Возник вот какой вопрос теперь:
Как лучше сделать: на всех брендах сделать скажем /collections.html и тогде получится у меня 2000 страниц collections.html хоть и в разных каталогах
Или лучше сделать collections_brand.html (например /коллекции-адидас.html) чтобы лучше ранжироваться по запросу Коллекции адидас, и тогда все урлы страниц будут разные/
И вообще что скажете о русских урлах?
ReFil, Куда же вы пропали? Уже скоро неделя пройдет, а вас нет нигде... мне уже статьи нужны размноженые!
Хочу для начала заказать размножение 6 статей, в среднем от 2400 до 2900 символов каждая. Анкоры и ссылки не надо проставлять (сам проставлю). Сделаете скидочку за "опт"?
Респект автору ) Метод 2 рулит!
Почему-то все забывают что Яндекс - это машина, созданная людьми. работающая по совершенно конкретным алгоритмам. Вас почитать - так поисковики - это какие-то божественные непознаваемые сущности. А между тем прикинуть что можно вычислить а что нельзя, и реализовать это - в локальном режиме гораздо проще чем поисковику - в глобальном. им то приходится огромными массивами рулить, а нам- оптимизаторам - на ночь поставил машинку и к утру результат готов.Многое что делалось раньше ручками - уже автоматизировано софтом - бесплатным или не дорогим. Те же биржи - это то что делалось раньше руками, но было автоматизировано. Сапе ребята в первую очередь писали для себя, а потом решили открыть её для всех. Изначально ее не задумывали как сервис - бабло зарабатывать. Если помните - то же было и с mail.ru.
Мое предложение - прикинуть, как можно отличить естественную ссылку от неестественной. Какие могут быть критерии?
Если определим - можно будет сервис написать или под винду софтинку
За клоакинг наказывают строго, когда этот клоакинг направлен на то, чтобы повлиять на результаты выдачи. а если клоакинг направлен на зарабатывание денег, а на результаты выдачи как раз не влияет - даже наоборот! - то могут и похвалить )
Vasiliy12345 добавил 06.05.2008 в 14:14
Как вариант - вполне может сработать. Всё же вероятно не я первый с таким сталкиваюсь, и кто-то уже написал что-то подобное. Если кто нибудь знает - скиньте плз ссылочку.
В топике еще был один вопрос - на тему того, как определять естественность ссылок. По нему есть что нибудь?
Подскажете ссылочку?
Албанский лузерский метод. 21 век на дворе! :)
Чтобы проверять все мои ссылки потребуется целый зоопарк
Vasiliy12345 добавил 06.05.2008 в 13:47
Вот собственно добрались до того с чего начали )
Может быть есть уже софт или сервис, который может это определять?
Если нет - может быть есть идеи на счет алгоритмов?