Ну тут есть 2 варианта.
Если это функционально обосновано - может и нормально отнесется.
Если это скрытие оптимизированного контента, который ненужен в принципе, нафег не нужен пользователям - тогда плохо.
Вопрос - а книги Вы сами писали?..
Я бы вообще поостерегся вешать на этом сайте адненс.
Во-первых - забанят за нарушение авторских прав.
Во-вторых, учитывая тематику, не думаю, что много на этом сайте зарабоатете. А умножив это на первое - поостерегся бы вешать адсенс.
Любая автоматизация сокращает издержки.
Сокращая издержки - компания поднимает свою рентабельность.
Поднимая рентабельность - получает больше прибылей.
Зачем по вашему на всех производствах увольняют рабочих и ставят на их место роботов?
А теперь вопрос - нахрена Гуглю расширять штат, если это не принесет выгоды?
Можно ставить по 3 блока на странице.
Будут это одинаковые блоки или разные - не важно.
Делайте - как Вам удобнее будет.
На непроиндексированный сайт ставить можно. У меня сайты после добавления адсенса даже быстрее в индекс входили.
Задача любой ПС - дать наиболее релевантный ответ пользователю.
А определение естественных ссылок - это лишь один из факторов, но вовсе не главный.
titaniMOZG добавил 29.11.2010 в 21:40
А потом еще и банит сам себя же )))
А ты не знал, что все хостинговые компании принадлежат Яндексу, и по сути, все сайты изначально размещаются в его дата-центрах??? 😂
Это еще одна часть жидомассонского заговора )))))))))
Так же как и фКонтакт - продукт работы ФСБшников ))))))))
Если это синонимайз - то бывает.
Я заказываю десяток статей с написанием шаблона под него для синонимайза. По 400 рублей за шаблон.
С каждого шаблона получается 300-500 статей - это если с отсевом на уникальность. Если без него - то несколько тысяч.
Отбираю по 200 вариантов с каждого шаблона, публикую по 20 статей в каждую рубрику на каждом сайте. Т.е. получается что на каждом сайте у меня 10 рубрик, по 20 статей в каждой.
Если писать все от руки - по 30 рублей/статья на 1000 знаков. Тогда конечно совсем другие цифры будут для такой сетки, даже при такой цене )))))
Я клепаю сайты на Жумле.
Делаешь десяток сайтов, подкручиваешь шаблоны.
Заказываешь синонимайз (дешевле) или копирайт/рерайт (качественнее).
Берешь тексткит, указываешь настройки для подключения к сайту и публикуешь.
У меня сделать десяток таких сайтов с 200+ статьями на каждом занимает 3 дня + 4000 рублей копирайтеру.
Я это понимаю, вот только у Вас почти три десятка параметров, по которым можно фильтровать сайты. Таким образом, получается, что мне каждый раз нужно будет открывать это окошечко, выбирать нужный параметр и запускать проверку.
Это возможно, но неудобно. Если каждую проверку опять же сохранить как пресет - это уже будет куда проще.
Если проверку совместить с фильтром, что бы проверялся параметр и тут же сравнивался с условиями фильтра - это будет еще проще, собственно плагин винка так и работает - он проверяет и сразу отмечает, что под критерии не подходит.
Если же несколько таких последовательных проверок и фильтров можно будет вообще назначить на одну кнопку - то тут цены не будет.
Я предлагаю просто проводить ступенчатые проверки, одна за другой, а не сразу все.
Видел, изучаю. :)
Пожалуйста :)
Основываясь на демоверсии, могу сказать, что плагин винка работает в разы быстрее. За счет того, что сначала проверятся все одним фильтром, потом оставшиеся - другим, оставшиеся - третьим и т.д. Т.е. каждая последующая проверка затрагивает только то, то осталось после предыдущей. Как итог: 1000 заявок у меня разбирается за 3-4 минуты.
В СапеМастере - выполняются все проверки для всех сайтов.
Допустим.
Как пример:
Я фильтрую сайты по следующий фильтрам в такой последовательности:
LF, GC (GI), H, Cn, YP, BC, TF.
Допустим, у меня пришла 1000 заявок.
LF - отбрасывает минимум 50%, т.е. остается уже 500 заявок.
GC - проверка на индекс в гугле. Работает быстро, и большой процент выбраковки, еще процентов 50. Итого остается уже 250 заявок.
H - проверяю число в индексах. Выбрасывает 1-3%. Можно пренебречь.
Cn - сравнивает соотношение индексов между Гуглем и Яшей. У меня поставлена разница в 100 раз. Если в Яндексе 10 000 страниц, а в Гугле не больше сотни - что то тут не чисто. Я так считаю. Выбрасывает процентов 5-10%, т.е. остается около 230 заявок.
YP -проверяю индексацию в Яше. Запускаю ее только на 5-м этапе, т.к. XML жалко, и так не хватает. Отбрасывается процентов 20-25%, итого остается около 180 заявок.
BC и TF - проверка внешних ссылок и контента. Тут процентов 50-70 от остатка вылетает. Остается в лучшем случае штук 50.
На самом деле, после всех проверок остается всего ссылок 20-30 из тысячи. Что бы осталось 50 штук - это просто фантастика.
В СапеМастере интересна, конечно, проверка на уникальность и проверка средних цен. Но как понимаете, сделать эти проверки для оставшихся 30-50 заявок - куда быстрее, чем для всей 1000.
Один неоспоримый плюс, который у Вас есть - это сохранение разных фильтров. Но ведь что бы ими воспользоваться, необходимо провести проверку данных, что и занимает много времени и много ресурсов. Тот же лимит в XML-ле будет спускаться просто со свистом.
Мое предложение о том, что бы сделать в программе сценарии, которые позволяли бы проводить проверку по заданным критериям и потом по этим критериям фильтровать, потом проводить следующую проверку и применять следующий фильтр и т.д. - тут уже было. Вот тогда по скорости работы и удобству - Ваша программа будет действительно лучше, если только Винк не прикрутит к своему плагину опцию сохранения шаблонов проверок/фильтров, уникальности и анализу цен. :)
А так, пока что я вижу, что 3/4 пользователей, не совсем по душе пришелся софт.
Успех любого софта зависит не только от того, насколько он функционален, но и от того, насколько он удобен в обращении. У Вас функционал хороший, но удобство - хромает. Это мое личное мнение.