Да я и сам знаю что нужно делать, клиент хочет чисто белыми методами, на мой взгляд это написание "правильных" уникальных текстов, внутренняя перелинковка, продвижение статьями. Если я не прав дополните, буду рад совету.
Нет сайт нужно без региона. Это я цену аренды яхты сравнил с ценой аренды лимузинов в нашем городе, в смысле не дорого, на мой взгляд яхта явно круче лимузина. У нас город вообще ехнутый насчет цен на развлечения - иногда обганяет столицу, при этом уровень зарплат...
Не секрет, чтобы не сильно прогореть решил разделить задачу на 2 части, за ТОП20 попросил на ваши деньги около 9000 р. с оплатой по факту. Плюс мой начальник (посредник) набавил (не знаю сколько) в итоге я так понял я этим сайтом заниматься не буду ))))
Я всегда так беру (я много чем занимаюсь, не только продвижением) и сейчас продвигаю региональный сайт по такой схеме. Но использование такой схемы стало возможным лишь по той причине что меня посоветовала хорошая подруга заказчицы, которая меня хорошо знает и уверена в моей порядочности. В противном случае я бы мог легко водить клиента за нос выполняя ненужные операциии и включая их в сметту.
Тут заказчик посторонний и не знаком со мной. Поэтому вся то и задача что я не могу сказать сколько нужно будет проделать работы чтобы достичь поставленой цели (опыта мало) и не могу умножить на стоимость часа, вот и спрашивал совета здесь и спасибо всем что откликнулись!
Спасибо всем за советы, сказал свою цену, (хоть и сильно в ней сомневаюсь), ну ниче если прогорю то будет хотябы опыт оценки продвижения, начинать то как-то надо.
С сервисами оценки продвижения не понял они оценивают за месяц, получается первые месяцы нужно будет за даром работать, а когда эффект пойдет, то заказчик скажет чао, что мне тогда все ссылки снимать чтобы он с топа вылетел!
А по поводу продажи яхт: клиент не продает, а сдает в аренду, причем по цене лимузинов на свадьбу в нашем городе (провинция). Так что спрос есть.
От прикол! ) А денег сколько взять за ТОП 10 в гугле и Яндексе? Я не прошу точной цифры, так как понимаю что детальный анализ это время, мне хотябы порядок цифр, чтобы мое предложение резко не выбивалось среди других в ту или иную сторону.
На своих тренировался - успешно. Только у меня запросы менее частотные были. Я вроде разбираюсь неплохо, я не могу оценить именно объем работы, которую необходимо выполнить чтобы достичь поставленнного результата.
Serafim, вы бы сколько взяли?
Ок. Спасибо. Будем пробовать.
Я бы сделал одну главную страницу "Торшеры", написал бы для нее уникальную статью на 3-4 тыс. знаков, эту бы страницу продвигал в поисковиках. На этой главной странице разместил бы форму с критериями отбора торшеров (по кол-ву ламп, цене еще там чем) и все. Пусть 1000 страниц с различными моделями торшеров не уникальны и не находятся в индексе - они для людей, для поисковиков существует главная страница на которую стоит куча ссылок с интернета, и на которой уникальная статья. Народ вводит в поисковике "торшеры", попадает на главную страницу, задает критерии отбора и получает ссылки на страницы с конкретными моделями торшеров. Теоретически, при определенной реализации этой схемы поисковики и знать не будут про 1000 неуникальных страниц, так как ссылки на них появляются только после задания критериев отбора, а поисковики ничего не задают в формах по-моему.
Что значит замечательно вы достигли посещаемости 10 000 чел/сутки как хотели в первом посте?
Разве PR не до 10?
Яндекс Директ думаю точно не причем, а ТИЦ может падать и при изменении алгоритма его подсчета - Яндексовцы же постоянно что-то меняют.
Насчет сложнее ли раскрутить новый сайт с наличием кучи внешних ссылок не знаю, так как сам стараюсь не жадничать - сначала заработать сайту авторитета, а потом пропорционально авторитету выжимать с него деньги.
Логика очень большая! Зачем поисковику считать ссылки на сайт? Чтобы точнее определить тематику сайта и понять на каком сайте эта тематика более удачно раскрыта (теоретически если пользователи ссылаются на сайт значит там есть что-то ценное, значит его повыше в выдаче можно поднять)
Если вес не будет испарятся, то вебмастера будут жадничать на DOfollow ссылки (чтобы на свои страници больше осталось, так сказать "копить" PR) и в результате в Интернете останутся только покупные открытые ссылки - с которыми любая поисковая система борится.
ПРИМЕР: есть страница с PR 10. На этой странице стоят 4 ссылки: 3 внутренние и одна внешняя на качественный сайт. Теперь давайте рассмотрим два варианта: первый - внешняя ссылка открыта, второй - внешняя ссылка закрыта nofollow по старому и новому алгоритмам.
Вариант №1 по СТАРОМУ алгоритму:
Ссылка 1 (внешняя открытая) - передаваемый PR 2,5 (10/4)
Ссылка 2 (внутренняя открытая) - передаваемый PR 2,5 (10/4)
Ссылка 3 (внутренняя открытая) - передаваемый PR 2,5 (10/4)
Ссылка 4 (внутренняя открытая) - передаваемый PR 2,5 (10/4)
Вариант №2 по СТАРОМУ алгоритму:
Ссылка 1 (внешняя закрытая) - передаваемый PR 0
Ссылка 2 (внутренняя открытая) - передаваемый PR 3,3 (10/3)
Ссылка 3 (внутренняя открытая) - передаваемый PR 3,3 (10/3)
Ссылка 4 (внутренняя открытая) - передаваемый PR 3,3 (10/3)
Как видите раньше во втором варианте на внутренние страницы получалось больше и вебмастеру было не выгодно ставить открытые ссылки даже на качественные сайты (все жадничали, копили), и оставались только купленные открытые ссылки.
Вариант №1 по НОВОМУ алгоритму:
Вариант №2 по НОВОМУ алгоритму (2,5PR закрытой внешней ссылки испарилось):
Как видите теперь копить нет смысла и вебмастера стали ставить бесплатные открытые ссылки на качественые сайты и поисковики вздохнули с облегчением.
Выводы:
1. по поводу внешних ссылок пользуемся этими правилами:
а) если есть возможность ссылку не ставить мы ее не ставим - чем меньше ссылок на странице, тем больше приходится вес на каждую - правило старое и актуальное
б) если без ссылки не обойтись, то ссылку на "плохой" или явно не по теме сайт закрываем nofollow, а вот на качественный оставляем открытой - и внешнему сайту поможете и себе капельку траста добавите.
2. для внутренних ссылок ВООБЩЕ НЕ ИСПОЛЬЗУЕМ nofollow, если какую-то страницу не нужно индексировать, то лучше запретить ее в robots.txt