ахах, 3 это мало же
надо 33!! больше треша и угара))
если серьезно, то
к сожалению, большинство быстрых тем вне закона
из того, что есть - в развлекательной тематике адова конкуренция, дорогущие темы тоже попилены и поделены, просто так в тему не зайти, надо ее знать и мочь сделать лучше чем у конкурентов
берите что-то нишевое, то, где мало конкурентов, но есть устойчивый спрос, и то, что лично вам интересно и в чем вы разбираетесь.
9000 гостей за какой период времени?
вы лучше в хостах/хитах скажите
сколько запросов страницы в минуту, например?
а то, может начать надо с оптимизации форума
меня так один раз гугл задидосил- прислал посетителей на сайт на вордпрессе на шаред-хостинге))
траффик был неожиданный (хоть и приятный)
но сайт прилег
просто потому что не был включен кэш, да и лишнего много чего было на сайте.
это я к тому, что не обязательно вас ддосят
английский язык тут ни при чем же
кривой перевод гуглотранслэйта
на самом деле, вся обувь называется по-разному
sneakers - кроссовки
shoes - ботинки
footwear - обувь (общий класс)
и в буржуйских интернет-магазинах она называется по-разному
отсылка на англоязычность гугла - чистейшей воды шаманизм и конспирология. вы же не думаете что гугл переводит весь свой индекс на англ язык, и запросы пользователей тоже, да еще через гуглотранслятор? и потом ищет кривую фразу по кривой базе?
гугл тупо сортирует обувные сайты по трастовости, и плевать ему что кроссовок на одном сайте может быть 1 модель и та в жопе сайта, а на другом - тысяча одна и вообще сайт о кроссовках
трастовость же
имхо конечно
смотрите,
есть такая штука как персонализированная выдача
вас отследили по кукам, поняли что на таких-то сайтах вы частый гость
соответственно, для вас в поиске они будут выше
но
я бы на месте гугла поощрял сайты, на которых инфа появляется чаще и раньше, чем на других---------- Добавлено 31.03.2016 в 02:38 ----------
дык пишут же
думаю, через полгодика-годик к гугловому зверинцу добавится какая-нибудь пума или лама
которая существенно усложнит рерайты
пока - не видно, да
но это не значит, что не будет
распознавание изображений, речи - уже на потоке, нейронные сети вовсю пашут на корпорацию зла)
чуть ранее я сделал предположение как может быть определен качественный контент: путем отсеивания "воды" и извлечения фактов. больше фактов - лучше контент
на извлеченных фактах можно построить дерево связей.
банальный пример, статья о, например, орехах кешью
убирается вода, получается инфа
кешью растут там-то, такой-то внешний вид, цвет, такая-то калорийность, так-то обрабатываются, такие-то полезные свойства, содержание витаминов, жиров, углеводов,
бонусная инфа: применяются в таких-то блюдах, история открытия, завезены в европу в таком-то году (например), средняя цена за кг столько-то
далее можно посмотреть другие страницы сайта, есть ли там доп. инфа по теме
согласитесь, ничего экстраординарного в этом нет
педивикия в этом плане рулит, т.к. в ней куча перекрестных ссылок, расшифровка терминов
справочник как он есть, одним словом---------- Добавлено 31.03.2016 в 02:32 ----------
пока - да
ручками (по стуку конкурентов) и трастом
>>Получается тема бессмысленна
тщетно бытие))
однако, вернемся к этой теме через полгодика-год
имхо гугл будет поощрять авторов качественного, информационного контента.
мы говорим не о том, что есть, а о том, что будет
Смотрите, у поисковика есть проблема: туева хуча сайтов с дублированным контентом различной степени переделки - от откровенного шлака/синонимайза до т.н. рерайта, который сводится к изложению существующего текста другими словами.
Для поисковика выдача однотипных, об одном и том же, текстов сплошняком в выдаче не есть гут.
я предположил вариант как поисковик может ограничить поток шлака в выдаче. Для этого ему нужно выбрать один источник, содержащий наиболее полную информацию, а остальные источники забить за 10ю страницу выдачи. Таким образом в выдаче будет более-менее разнообразие, а рерайт как он есть сейчас, без привнесения новой информации, станет бессмысленным.
Там, где контента мало, можно выводить и рерайт; там, где его и так достаточно - рерайт можно прятать.
Я не говорю о понижении в выдаче сайтов целиком (хотя если там %% рерайта будет зашкаливать, почему бы и не опустить сайт полностью), я говорю о ранжировании определенных страниц.
Еще раз, статьи, рассказывающие об одном и том же, переписанные 100500 раз с одной-единственной - забивают выдачу, и не нужны как таковые. Юзеру достаточно одной, любой, чтобы получить нужную инфу. Качество статей же должно проявляться в том, чтобы добавлять ценность информации - не просто переписать, а развернуть тему, добавить доп. инфу. И вместо битвы за уник будет битва за полноту информации. У кого больше инфы по теме - тот и будет выше.
Как-то так.
ну как же
совершенно ясно, что для гугла первоситочником будет тот сайт, где новости систематически появляются раньше чем на других сайтах.
рерайт гугл уже объединяет в своих гуглоновостях
вот же
https://news.google.com/news/section?cf=all&pz=1&topic=t
если навести мышу на новость, появится стрелочка "показать похожие"
то есть, у каждой новости есть топовый источник и есть "похожие", которые суть рерайт
несмотря на то, что на каждом сайте новость фактически переписана своими словами, гугл умеет определять что эта новость похожа на другие, и умеет объединять похожие новости.
а какие дела со смыслом?
сделать краткую выжимку инфы из текста - какие проблемы? убираем всю "воду" и слова паразиты, получаем чистую инфу. где инфы больше - там скорее всего текст полезнее.
сочетаем метод выжимки смысла + ПФ + траст = получаем ранжирование.
Свое-не свое по принципу "кого первого проиндесил". Есть источники новостей, например, а есть паразитирующие на этих источниках сайты.
привел исключительно в качестве примера работающего решения.
вряд ли яша будет делиться более продвинутыми алгоритмами бесплатно