wwwwww

wwwwww
Рейтинг
195
Регистрация
29.04.2011
max40in:
После публикации запрос упал опять на 20ые позиции. В течение долго времени он там и находится и не двигается никак. В чем может быть причина?

Похоже на переспам.

zootop.org:
запрашивают более 60 000 000 раз в месяц, и это не считая СЧ и НЧ, да и в других ПС. Так что мой предварительный ориентир около 20 000 000 в месяц, а там может и более.

А теперь посмотрите стату по Вашему запросу, выбрав точное соотвествие [запрос] и результаты в тему.

А то больше похоже на проект адалт тематики с больши хотелками, где видео надо тоннами :D , где команда матерых программеров, которые работают за кусок черного хлеба (2000$ как уже верно подметили и для одного программиста скудная зп, а с налогамии подавно), но как проектировать, как оптимизировать и считать затраты и нагрузку никто не знает.

Чую близится кульминация.

Кстати ТС, раскручивать будете проект своими силами? Линкбилдер есть, копипстеры, ой извините, копирайтеры есть?

Под такой проект как минимум пару сотен закрытых сетей будете делать и огромную сеть сатов?

---------- Добавлено 01.10.2012 в 05:43 ----------

ТС, давайте я Вам хотя бы WordPress помогу настроить.

А то такие грандиозные проеты, а сайт совпадающий с ником не ухожен.

Какая CMS?

Своя, с блекджеком... и контекстной рекламой.

Jaf4:
в гугл тоже формируется не только из дескрипшена

Маленько коряво написал, соглашусь.

В общем, Яндекс более привередлив. Яндекс там, где есть релевантный description, может взять кусок из description, а кусок из текста. Гугл берет description, если тот релевантен. Иначе сниппет обеими ПС может быть соствален из кусков основного контента (в т.ч. и заголовков).

Потому что так работает формирование сниппета. Изучайте на практике. В Яндексе сниппет не так как в ГУгл только из дескрипшна.

Основная причина - если проект успешен и много хорошего конетент, то растащат и отзеркалят. Замучаетесь отмахиваться.

---------- Добавлено 30.09.2012 в 16:52 ----------

Да, а еще есть те, кто боятся, что идею украдут (сервиса, блога или чего там еще :D)

ТС, Вы взяли инфо запрос, люди ищут инфу по ней. Запрос НЧ. Что еще хотите услышать?

Как собирается СЯ?

Берете руками и делаете словарь 2-словников. Далее расширяете купить, продать, заказать. Потом через вордстат посказки или спец софтом набираете массу ключей. ПОтом чекаете частотность. 3-5% вот средний показатель оставшихся запросов после перебора. Нужно 100 запросов, готовьтесь найти 2000-3000.

---------- Добавлено 30.09.2012 в 01:09 ----------

А так - да, если верить ЛИру, то 55% Яндекс запросы и 30% Гугл, 10% Майл.ру

Вот тема

/ru/forum/743928

Была жалоба на невозможность прасинга сайта ХХХ, поскольку защита была через установку Cookiee на через JS.

Понятно, что куки не панацея. И для больших объмов нужно что-то серьезное. Но тот же Яндекс пока борется с парсингом Вордстата капчей и баном целых подсетей. Куда уж простым сайтам.

Если подходить комплексно, то можно задействовать 2 стороны:

- серверную

- клиентскую

Считать сколько и когда приходил пользователь, используя "неудаляемые куки", сессии на 5-10 минут и изменять разметку контента. Доплнительно можно украсить сайт капчей, хотя это может оттолкнуть некоторых и добавить нечто самописное на AJAX, которое будет например с интервалами 5-10 минут спрашивать вопросы или показывать ту же капчу. Обработка руками всегда нервирует и снижает скорость парсинга.

Но всегда верно отмечают, если очень надо - все равно найдут как.

Главной проблемой всегда остается поисковй бот и его присутсвие на сайте. А также отношение ПС к контенту.

Возможный вариант, который затратен, но позволит сузить автоматичекий масовый парсинг, сведя почти к нулю - реверс IP и определение кто пришел, с подключением черныхх списков. Так можно отсеять черные и серые прокси, а так же различные массовые краулеры и псевдо поисковые системы.

Но ведь можно нанять и школоту, которая тупо руками все скопирует :)

Ну или например кеш сервер запустить и серфить неспеша.

Всего: 2351